Flash索引现在可以加载外部资源了!
2009年7月17日星期五
发表者:
Janis Stipins,软件工程师
原文:
Flash indexing with external resource loading
发表于:2009年6月18日 晚上11:27
我们刚刚在
Flash索引
方面添加了加载外部资源的特性。这意味着当一个SWF文件从其他文件(比如text, HTML, XML和其他SWF等文件)加载内容的时候,我们也能索引这些外部内容,并把它与原SWF文件和其他任何引用了这些内容的文件联系起来。
这个新的特性有助于提高搜索质量,因为它使得包含在外部资源里的相关内容也能够出现在用户搜索词的结果里。比如,下面这条URL出现在[
2002 VW Transporter 888
]的搜索结果里:
在这个特性发布之前,这个结果并不包含在里面,因为所有的相关内容都是包含在由一个SWF文件加载的外部XML文件里。
目前,当Google在网络上碰到SWF文件时,我们能够:
-
索引那些作为用户和这个文件交互时才显示的文字性内容。我们能够点击SWF文件中的按钮并输入内容,就像一个用户做的那样。
-
支持通用的Flash文件中内嵌的JavaScript技术,比如SWFObject和SWFObject2。
-
索引采用AS1和AS2脚本的站点,即使ActionScript是模糊的。2009年6月19日最新更新:现在我们也能索引采用AS3的脚本。ActionScript的版本在索引过程中不是特别有相关性,因此我们不仅支持新版本的AS,同时也支持老版本的AS。
如果您不想让您的SWF文件或其他外部资源被搜索引擎抓取到的话,请添加恰当的
robots.txt指示
。
如未另行说明,那么本页面中的内容已根据知识共享署名 4.0 许可获得了许可,并且代码示例已根据 Apache 2.0 许可获得了许可。有关详情,请参阅 Google 开发者网站政策。Java 是 Oracle 和/或其关联公司的注册商标。
最后更新时间 (UTC):2009-07-01。
[null,null,["最后更新时间 (UTC):2009-07-01。"],[[["Google can now index external resources loaded by SWF files, improving search results by including relevant content from sources like text, HTML, XML, and other SWF files."],["This update enables content previously inaccessible to search engines, such as information loaded from external XML files, to appear in search results."],["Google's Flash indexing capabilities encompass indexing textual content, discovering links, loading external resources, supporting common JavaScript embedding techniques, and indexing sites scripted with various ActionScript versions."],["Webmasters can control the crawling of their SWF files and external resources using robots.txt rules."]]],["Google now indexes content loaded externally by SWF files, associating it with the parent SWF and embedding documents. This enhances search quality by including relevant external content in search results. Google indexes textual content displayed through user interaction, discovers links within Flash files, loads external resources, and supports common JavaScript embedding techniques. Sites using AS1, AS2, and AS3 are also indexed. To prevent crawling, utilize a `robots.txt` rule.\n"]]