Koncerny medialne chcą lepszej kontroli nad wykorzystywaniem ich
contentu przez wyszukiwarki. InternetStandard
przypomina:
Obecnie Google, Yahoo czy Microsoft respektują dane zawarte w specjalnym pliku "robots.txt", który zawiera informacje, jakie części danej strony mają zostać zindeksowane.
Mechanizm ten jest podobno przestarzały i
niewystarczająco chroni interesy koncernów.
Wydawcy proponują nowy system - Automated Content Access Protocol (ACAP), który daje większe możliwości samym wydawcom. Dzięki ACAP będą oni mogli m.in. decydować o długości przechowywania przez wyszukiwarki kopii stron czy zabraniać robotom podążać za linkami z określonych podstron.
Dzięki ACAP możliwe byłoby - rzekomo - publikowanie w sieci większej ilości materiałów chronionych prawem autorskim.
Dla mnie jest to niepojęte, że ktoś dobrowolnie rezygnuje z darmowej reklamy, którą robi mu Google czy Yahoo! Search. Najgłośniej krzyczą Europejczycy - zresztą jakiś czas temu pozwali Google i wygrali. Co zyskali? Nic. Ich linki przestały się pojawiać w jednym z najpopularniejszych serwisów newsowych, a na ich zapyziałe strony nie zaglądają już tysiące łaknących europejskiej wizji świata Amerykanów.
Jako wydawca w moim interesie byłoby skłonienie innych serwisów do publikowania fragmentów moich newsów i artykułów. Właśnie, fragmentów. Z widocznym linkiem. To właśnie robiło Google. Efekt gwarantowany. Szkoda, że niektórzy tego nie rozumieją. Chcą najwyraźniej nie tylko zniknąć z serwisów agregujących, ale także ograniczyć obecność w samych wyszukiwarkach, co jest już kompletną głupotą i pozwala posądzać o skłonności samobójcze.