鱼虾网seo
鱼虾网seo,专注企业网站建设及SEO优化服务。联系QQ/微信:68587353

网站SEO教程,SEO的8种可行方法

时间:3个月前   阅读:21

网站seo教程,SEO的8种可行方法

在本文中,我们将介绍什么是日志文件,为什么如此重要,要查找什么以及使用哪些工具。 最后,我将提供8种可行的方法来分析SEO优化。

  什么是服务器日志文件?

  服务器日志是服务器自动创建和维护的一个日志文件(或多个文件),并且由服务器执行的活动列表组成。

  出于SEO的目的,我们专注于Web服务器日志,其中包含来自人类和机器人的网站页面请求的历史记录。 有时称为访问日志,原创数据如下:

  服务器日志文件

  是的,起初数据看上去有些令人不知所措,令人困惑,所以让我们分解一下,更仔细地看一下“命中”。

  命中例子

  每个服务器的记录命中本质上是不同的,但是它们通常提供相似的信息,并按字段组织。

  这是命中Apache Web服务器的示例(这已简化,某些字段已删除):

  50.56.92.47 – – [25/5/2020:12:21:17 0100]“ GET” –“ /wp-content/themes/esp/help.php” –“ 404”“-”“ Mozilla / 5.0(兼容 ; Googlebot / 2.1; google/bot.html)” – example –

  如您所见,对于每次匹配,我们都会获取关键信息,例如日期和时间,所请求URI的响应代码(在这种情况下为404)以及请求来自的用户代理(在这种情况下为Googlebot)。 您可以想象,日志文件每天由数千次点击构成,并且每当用户或机器人到达您的网站时,请求的每个页面都会记录许多点击,包括图像,CSS和文件的呈现任何其他文档 需要。

  它为什么如此重要?

  所以您知道什么是日志文件,但是为什么值得花时间对其进行分析?

  好吧,事实是,只有一条真实记录可以告诉搜索引擎(例如Googlebot)如何处理您的网站。 即通过查看网站的服务器日志文件。

  网站管理员(站长)工具,第三方搜寻器和搜索操作员将无法完全了解搜索引擎如何与网站互动。 只有访问日志文件才能为我们提供此信息。

  我们如何将日志文件分析用于SEO?

  日志文件分析为我们提供了许多有用的见解,包括使我们能够:

  确切验证可以爬网或不能爬网的内容。

  检查搜索引擎在搜索过程中遇到的响应,例如302、404和soft 404。

  识别爬网漏洞,这些爬网漏洞可能具有更广泛的基于站点的含义(例如层次结构或内部链)连接结构)。

  查看哪些页面被搜索引擎优先处理,并可能将其视为最重要的页面。

  发现浪费搜索预算的区域。

  我将指导您完成一些在日志文件分析过程中可以执行的任务,并向您展示它们如何为您提供可行的网站见解。

  如何获取日志文件?

  对于这种类型的分析,您需要来自域中所有Web服务器的原创访问日志,而无需应用任何过滤或修改。 理想情况下,您需要大量数据才能使您的分析有价值。 值得多少天/周取决于站点的大小和权限以及所产生的流量。 对于某些站点,一个星期可能就足够了,对于某些站点,您可能需要一个月或更长时间的数据。

  您的Web开发人员应该能够为您发送这些文件。 值得一问的是,日志在发送给您之前是否包含来自多个域和协议的请求,以及这些请求是否包含在此日志中。 否则,它将阻止您正确识别请求。 您将无法分辨对example/和example/的请求之间的区别。 在这种情况下,您应该要求开发人员在将来更新日志配置以包括此信息。

  我需要什么工具?

  如果您是Excel专家,那么本指南对帮助您使用Excel格式化和分析日志文件非常有用。 我们使用Screaming Frog日志文件分析器,其友好的用户界面可让您快速轻松地发现任何问题(尽管可以说,您获得的深度或自由度与使用Excel所获得的深度或自由度并不相同)。 我将向您介绍的所有示例都是使用Screaming Frog日志文件分析器完成的。 其他一些工具是Splunk和GamutLogViewer。

  9种分析SEO日志文件的方法

  1.找出浪费搜索预算的地方

  首先,什么是抓取预算? 结合爬网率和爬网要求,我们将爬网预算定义为搜索引擎蜘蛛或机器人可以并且希望爬网的URL数量。

  本质上,它是搜索引擎每次访问您的网站时将爬网的页面数,并与域的权重相关联,并且与通过网站的链接资源成比例。

  对于日志文件分析,至关重要的是,有时爬网预算可能会浪费在不相关的页面上。 如果您有要编入索引的新内容但没有预算,搜索引擎将不会为新内容编入索引。 这就是为什么有必要通过日志文件分析来监视爬网预算的支出的原因。

  影响检索预算的因素

  有许多低附加值URL会对网站的爬网和索引产生负面影响。 低附加值URL可以分为以下几类:

  分面导航,动态URL生成和会话标识符(通常在电子商务网站中使用)

  网站上的内容重复

  被入侵的网页

  软错误页面

  低质量和垃圾邮件

  全部浪费此类页面上的服务器资源将浪费实际有价值的页面的爬网活动,这可能会导致在站点上发现良好内容的时间大大延迟。

  例如,查看这些日志文件,我们发现一个错误的主题被非常频繁地访问。 这个问题很明显!

  日志文件爬网预算浪费

  查看每个页面的事件数量时,请问自己搜索引擎是否应抓取这些URL,您通常会找到答案是否定的。 因此,优化您的抓取预算将有助于搜索引擎抓取和索引您网站上最重要的页面。 您可以通过多种方式执行此操作,例如通过robots.txt文件阻止包含某些模式的URL,以避免URL爬网。

  2.您的重要页面是否已被完全检索?

  我们已经介绍了为什么对于搜索引擎来说重要的是不要在低价值网页上浪费抓取预算。 硬币的另一面是检查您对高价值页面的重视程度。 如果按事件数对日志文件进行排序,并按HTML进行过滤,则可以看到访问量最大的页面。

  日志文件分析重要页面

  要说最大程度地爬网最重要的URL可能有点太简单了-但是如果您是潜在的客户网站,则希望您的主页,关键服务页面和文章内容出现在其中。

  作为电子商务网站,您希望在其中显示主页,类别页面和关键产品页面。 如果您看到不再销售的旧产品页面,并且这些结果中最重要的类别页面为零,则存在问题。

  3.您所有的目标搜索引擎机器人都在访问您的页面吗?

  坚持使用易于执行的日志分析工具。 我们知道Google是外贸中的主要搜索引擎,因此确保Googlebot Smartphone和Googlebot定期访问您的网站是您的重中之重。

  我们可以通过搜索引擎bot过滤日志文件数据。

  日志文件分析搜索引擎机器人

  过滤后,您可以查看每个所需的搜索引擎机器人正在记录的事件数。 希望您会看到Googlebot智能手机或Googlebot最常访问您的网站。

  4.发现错误的状态码

  使用Screaming Frog日志文件分析器,您可以快速找到错误状态代码,并且由于它们是按爬网频率排序的,因此您还可以查看哪些URL最有可能被修复。

  要查看此数据,可以在“响应代码”标签下过滤此信息

  状态码错误

  查找HTTP状态为3xx,4xx和5xx的页面

  他们经常去吗?

  您访问3xx,4xx和5xx页面的次数是否比重要页面还要多?

  是否有响应码模式?

  在一个项目中,命中率最高的前15名每个页面中都有重定向,不正确的302(临时)重定向,页面上没有内容的页面,以及一些404和软404。

  通过日志文件分析,一旦发现问题,您就可以通过更新错误的重定向和软件404开始解决问题。

  5.突出显示不一致的响应代码

  尽管分析搜索引擎将遇到的最后一个响应代码很重要,但是突出显示不一致的响应代码也可以为您提供更深刻的见解。

  如果仅查看最终响应代码,而未发现任何异常错误或4xxs和5xxs中的任何尖峰,则可以在那里进行技术检查。 但是,您可以在日志文件分析器中使用过滤器来仅详细查看“不一致”响应。

  响应码不一致

  原因很多,您的网址可能会遇到不一致的响应代码。 例如:

  5xx和2xx混合-当它们承受重负载时,这可能表示服务器有问题。

  4xx和2xx混合-这可能指向已出现或已修复的断开链接

  一旦在日志文件分析中获得了信息,就可以创建一个行动计划来修复这些错误。

  6.查看大页面或慢页面

  我们知道到第一个字节的时间(TTFB),到最后一个字节的时间(TTLB)和整个页面加载的时间都会影响您的网站的爬网方式。 特别是TTFB,这是使您的网站快速有效地爬网的关键。 页面速度也是排名因素,我们可以看到快速的网站对您的表现至关重要。

  使用日志文件,我们可以快速查看您网站上最大的页面和最慢的页面。

  要查看最大的页面,请对“平均字节数”列进行排序。

  日志文件慢页

  在这里,我们可以看到PDF构成了网站上最大的页面。 优化它们并减小它们的大小是一个很好的起点。 如果您看到此处显示的特定页面,则可能需要单独查看它们。

  它们覆盖有高分辨率图像吗?

  他们有自动视频播放功能吗?

  它们是否有不必要的自定义字体?

  是否启用了文本压缩?

  尽管页面的大小可以很好地指示页面变慢的情况,但这还不是全部。 您可以有一个很大的页面,但是它仍然可以快速加载。 排序“平均响应时间”列,您可以看到响应时间最慢的URL。

  像您在此处看到的所有数据一样,您可以按HTML,JavaScript,图像,CSS等进行过滤,这对于审核非常有用。

  也许您的目标是减少网站对JavaScript的依赖,并希望找到最大的罪魁祸首。 或者您知道CSS可以简化,并且需要数据来备份它。 您的网站可能以蜗牛般的速度加载,并且按图像过滤表明您应该优先提供下一代格式。

  7.检查内部链接的重要性和爬网深度

  日志文件分析器另一个重要功能是能够导入Web爬网。 这确实很容易实现,并为您提供了更大的灵活性,可以从日志文件进行分析。 只需将爬网拖放到“导入的URL数据”中,如下所示。

  将爬网导入日志文件分析器

  完成后,您可以进行进一步分析。

  内部链接分析

  确保在下拉菜单“匹配URL数据”中进行选择,然后将相关列拖动到视图中。 在这里,我们可以对爬网深度和链接对您网站的爬网频率的影响进行批量分析。

  例如,如果您不经常对“重要”页面进行爬网,而您发现它们的链接很少,并且爬网深度大于3,这可能就是为什么您的页面不被爬网过多的原因。 相反,如果您的网页被抓取了很多,并且不确定为什么,请检查该网页在您网站上的位置。 链接在哪里? 离根有多远? 对此进行分析,可以向您表明搜索引擎就像您的网站结构。 最终,这项技术可以帮助您确定层次结构和站点结构中的任何问题。

  8.发现孤立的页面

  最后,通过导入爬网数据,很容易找到孤立的页面。 孤儿页面可以定义为搜索引擎知道并且正在爬网但未在您的网站内链接的页面。

  孤儿页

  选择“不在URL数据中”下拉菜单将显示日志中存在的URL,而不是爬网数据中存在的URL。 因此,此处显示的URL将是搜索引擎机器人仍然认为有价值的页面,但不再出现在网站上。 使用孤立URL的原因很多,包括:

  网站结构变更

  内容更新

  旧的重定向网址

  内部链接不正确

  外部链接不正确

  最终,您需要查看找到的孤立URL并做出判断以对其进行处理。

  最后的想法

  这是我们对日志文件分析和8个可执行任务的简要介绍。 您可以立即从Screaming Frog日志文件分析器开始。 您可以在Excel和上述其他工具(和其他工具)中做更多工作。

  您如何执行日志文件分析? 您认为哪种工具最有效? 我们的SEO团队很想知道,在下面发表评论!

上一篇:企业网站SEO优化,应该为公司建设多个网站吗

下一篇:网站SEO优化教程,如何为行业网站做SEO优化

猜你喜欢