Sivustot

Google helpottaa uutisten sivustojen poistamista

Porot kesäiltana, Kuusamossa 2019

Porot kesäiltana, Kuusamossa 2019
Anonim

Se, mitä katsotaan myönnytykseksi mediabaron Rupert Murdochille, on helpottanut uutissivustojen - kuten Murdoch-valvonnan - ulos Google-uutisista.

Jos heidän täytyi täyttää online-lomake Google-uutisten yhdistämiskohteen käytöstä, julkaisijoilla on pian keinot poistaa käytöstä tai asettaa muita vaihtoehtoja automaattisesti käyttämällä pieniä tiedostoja, jotka on sijoitettu

Murdoch on aiemmin uhannut ottaa News Corp. -sisällön, mukaan lukien Times of London ja Australian, pois Googlelta, kun jossakin vaiheessa tulevaisuudessa tulla maksullisiksi sivustoiksi. Wall Street Lehti ja Barron's ovat jo pitkälti tilaajapohjaisia.

Murdoch kertoi tiistaina Yhdysvaltain liittovaltion kauppakomission kuulemistilaisuudessa, että "ei ole ilmaisia ​​uutisia" ja toisti lausuntonsa siitä, että News Corp. -sivustot siirtyisivät maksulliseen malliin.

Aggregatoreista "nämä ihmiset eivät investoi journalismiin", Murdoch sanoi.

Hänen huomautuksensa kohdistettiin Googlelle

Huffington Post perustaja Arianna Huffington vastaa siihen, että "aggregaatiot ovat osa DNA: n DNA: ta" ja että vanhan median on "saatava todellista". Murdoch on myös kuullut Microsoftin kanssa neuvotteluista, mikä johtaisi News Corp.:n sisällön poistamiseen Googlelta ja parannettu Microsoftin Bing, joka maksaisi News Corp.: n maksua yksinoikeudella.

Google, joka osallistui myös FTC-kokoukseen, ilmoitti tiistaina blogikirjoituksessa, jossa esitetään Robots Exclusion Protocol -laajennukset, jotka on jo käytetty estämään Google ja muut hakukoneet indeksoimalla verkkosivustoja. Laajennukset antavat julkaisijoille mahdollisuuden valvoa, miten heidän sivustojaan hoidetaan Google-uutisissa.

"Nyt kun uutiskuvallinen indeksoija haluaa, että julkaisija haluaa sulkea pois Google-uutiset, heidän ei tarvitse edes ottaa yhteyttä, he voivat lähettää ohjeita vain käyttäjäagentti-Googlebot-Newsille samassa robots.txt-tiedostossa, joka heillä on tänään ", kirjoitti Googlen Josh Cohen viestiin.

Robots.txt on pieni tiedosto, jonka kehittäjät voivat sijoittaa juurihakemistoon niiden verkkosivustoista, jotka sisältävät Robots Exclusion Protocol -komennot.

"Lisäksi, kun tämä muutos on täysin paikallaan, se sallii kustantajien tehdä enemmän kuin vain sallia / estää pääsy Google News -palveluun. käyttää kaikkia REP-direktiivejä vain Google-uutisissa. Haluatko estää kuvia Google-uutisista, muttei Web Searchista? pian on mahdollista samaa standardiprotokollaa, joka on REP, "Cohen lisäsi.

Se ei ole todennäköistä muut käyttäjät eivät näe mitään muutosta, ellei suuri määrä julkaisijoita päättäisi luopua Google-uutisista ja osallistujien kustantajille (mukaan lukien

PC World) arvioidut 1 miljardia klikkausta kuukaudessa, "Useimmat ihmiset tekevät sisällön verkossa, koska he haluavat sen löytävän, joten hyvin harvat päättävät sulkea pois aineensa Googlelta. Mutta kunnioitamme kustantajien toiveita. Jos julkaisijat eivät halua niiden verkkosivustojen näkyvän verkkovastauksessa tai Google-uutisissa, haluamme antaa heille helpon tapoja poistaa ne. Olemme innoissamme tästä muutoksesta ja aloitamme sen tänään, "Cohen sanoi päätellessään julkaisemistaan ​​ilmoituksen muutoksesta.

David Coursey on kirjoittanut teknologiatuotteista ja yrityksistä yli 25 vuoden ajan. > @techinciter

ja saatetaan ottaa yhteyttä Web-sivuston kautta.