當(dāng)前位置:首頁 >  科技 >  IT業(yè)界 >  正文

浦東新區(qū)法院:百度地圖抓取信息未違反Robots協(xié)議

 2016-05-27 15:02  來源: 互聯(lián)網(wǎng)   我來投稿 撤稿糾錯(cuò)

  域名預(yù)訂/競價(jià),好“米”不錯(cuò)過

5月26日,大眾點(diǎn)評(píng)起訴百度不正當(dāng)競爭案的一審結(jié)果落槌。上海市浦東新區(qū)法院判定百度公司的搜索引擎抓取信息未違反Robots協(xié)議。

百度方代理律師稱,百度地圖的信息抓取行為具有合法性、正當(dāng)性,嚴(yán)格遵守了國際通行的行業(yè)網(wǎng)站抓取慣例,即Robots協(xié)議。Robots協(xié)議也稱為爬蟲協(xié)議、機(jī)器人協(xié)議等,全稱是“網(wǎng)絡(luò)爬蟲排除標(biāo)準(zhǔn)”(Robots Exclusion Protocol),網(wǎng)站通過Robots協(xié)議告訴搜索引擎哪些頁面可以抓取,哪些頁面不能抓取。這是國際通行的行業(yè)網(wǎng)站抓取慣例。

據(jù)了解,大眾點(diǎn)評(píng)網(wǎng)的Robots協(xié)議中屏蔽了愛幫網(wǎng)的信息抓取行為,并未禁止百度搜索引擎抓取信息。

針對(duì)庭審階段,大眾點(diǎn)評(píng)曾稱“百度地圖”與“百度知道”未經(jīng)授權(quán),大量復(fù)制“大眾點(diǎn)評(píng)網(wǎng)”的用戶點(diǎn)評(píng)等信息。此外,大眾點(diǎn)評(píng)認(rèn)為,百度使用了大眾點(diǎn)評(píng)網(wǎng)的圖文標(biāo)識(shí),使得相關(guān)公眾對(duì)服務(wù)來源產(chǎn)生誤認(rèn),屬于擅自使用知名服務(wù)特有名稱的不正當(dāng)競爭行為。

法院同時(shí)認(rèn)定,百度地圖在抓取信息中標(biāo)注大眾點(diǎn)評(píng)的圖文標(biāo)識(shí),是為了指示信息來源,屬于對(duì)他人標(biāo)識(shí)的合理使用,并無不當(dāng)。

百度方面表示,上海浦東新區(qū)法院認(rèn)定,百度地圖提供的搜索引擎服務(wù)遵守國際通行Robots協(xié)議,此判決結(jié)果體現(xiàn)了法院對(duì)互聯(lián)網(wǎng)信息共享的支持。百度將更合理地控制來源于第三方網(wǎng)站信息的使用范圍和方式,進(jìn)一步提升用戶體驗(yàn)。百度堅(jiān)信,合作、共享的信息生態(tài)將給用戶帶來更多的福祉和便利,百度將本著開放創(chuàng)新的精神,促進(jìn)用戶和合作伙伴的多方共贏。

而對(duì)于浦東新區(qū)法院認(rèn)定百度地圖侵權(quán)部分,百度表示將提起上訴。

申請創(chuàng)業(yè)報(bào)道,分享創(chuàng)業(yè)好點(diǎn)子。點(diǎn)擊此處,共同探討創(chuàng)業(yè)新機(jī)遇!

相關(guān)標(biāo)簽
robots

相關(guān)文章

  • robots協(xié)議怎么寫 作用是什么?

    robots協(xié)議也叫robots.txt(統(tǒng)一小寫)是一種存放于網(wǎng)站根目錄下的ASCII編碼的文本文件,它通常告訴網(wǎng)絡(luò)搜索引擎的漫游器(又稱網(wǎng)絡(luò)蜘蛛),此網(wǎng)站中的哪些內(nèi)容是不應(yīng)被搜索引擎的漫游器獲取的,哪些是可以被漫游器獲取的。

    標(biāo)簽:
    robots
  • robots具體應(yīng)該禁止些什么文件

    今天大概總結(jié)一下:首先說明一點(diǎn):每天百度派出的蜘蛛是有限的,robots寫出來是為了節(jié)省蜘蛛資源讓蜘蛛能更快的進(jìn)行有效爬取和收錄!

  • robots文件編寫秘籍 新手必看

    當(dāng)我們的網(wǎng)站上線之后,一定會(huì)有一些不想讓百度抓取的頁面、文件,針對(duì)這種問題,我們就要使用協(xié)議去屏蔽。那么這個(gè)協(xié)議是什么?究竟怎么寫這個(gè)協(xié)議呢?

    標(biāo)簽:
    robots文件
    robots
  • robots.txt文件怎么寫才正確呢?

    曾慶平SEO在前面的文章中講過robots.txt概念的時(shí)候,留下一個(gè)問題:為什么曾慶平SEO的robots.txt寫得那么復(fù)雜?曾慶平SEO的robots.txt:http://www.xxx.com/robots.txt這樣做的目的是,讓搜索引擎看來網(wǎng)站更規(guī)范和權(quán)威。

  • 百度站長平臺(tái)檢測robots.txt 提示301錯(cuò)誤代碼 怎么解決

    如果以上都沒有錯(cuò)誤,那么你就要檢查你的CDN了,很可能是因?yàn)镃DN緩存而造成的,或者是你配置了https,而站長平臺(tái)卻綁定的http,無法訪問,這兩點(diǎn)自己排查,如果以上都做到,那么是不會(huì)提示這類錯(cuò)誤的,當(dāng)然也不排查百度站長平臺(tái)本身的問題,不過這種機(jī)率性很小。

熱門排行

信息推薦