Контент в Веб-паутине. Что было, есть и будет
В нулевых годах сайтов и размещаемых на них материалов было не так много как сейчас. Корпорациям, разрабатывающим поисковые системы, для увеличения своих доходов важно было привлечь людей к поиску информации посредством Интернета. Для этого в Веб должен был появиться контент не хуже, чем в книгах, журналах, библиотеках, радио и ТВ.
В то время поисковики снисходительно относились к сайтам, на которых публиковались оцифрованные книги. Для иного были популярны торренты. Снисходительно - значит, что такие ресурсы имели видимые позиции в поисковой выдаче и получали трафик из поиска.
Владельцы поисковых систем зарабатывают на рекламе, которую размещают как непосредственно в поиске, так и на сайтах. Во втором случае корпорации вынуждены делиться своим доходом с владельцами сайтов.
Для того чтобы зарабатывать на размещении рекламы на своих ресурсах, вебмастера регистрировались в рекламных системах корпораций, владеющих поисковиками. Однако не каждый сайт мог быть принят. Откровенно пиратские и нарушающие законодательство туда не брали.
Таким и тем, кого не устраивали корпоративные рекламные биржи, оставалось идти в более мелкие, тизерные и баннерные сети, коих было много. Они процветали, потому что любой сайт получал поисковый трафик.
Корпорациям это было не выгодно, и когда контента в Интернете накопилось достаточно, их отношение к нарушающим авторские права ресурсам и размещающим "плохую" (а была и такая без кавычек) рекламу ужесточилось. "Неправильные" сайты были выброшены из видимой зоны поисковой выдачи.
Второе десятилетие этого века в Веб ознаменовалось процветанием таких профессий как рерайтер и копирайтер. По большому счету люди переписывали своими словами книги, документацию, - все, что до этого уже было выложено на сайтах, в социальных сетях, файловых хранилищах. Конечно, есть действительно авторские ресурсы, первоисточники информации, кто-то создает уникальную графику и видео. Но в общей массе текстового контента скорее всего доля подобного невелика. Если вы написали статью, ее всегда кто-то может переписать своими словами. Если кто-то нарисовал схему, ее можно перерисовать с небольшими изменениями и выдать за свою.
Другими словами, накопленный человечеством опыт, который был зафиксирован на бумаге и в определенной степени охранялся авторским правом, был многократно продублирован в цифровую форму. И потерял авторство. Теперь разработчики поисковых систем могли делать с ним что-угодно.
Определению первоисточника информации не уделялось необходимого внимания. В поисковой выдаче сайты ранжировались в основном по соответствию контента запросу, авторитетности ресурса, поведенческим факторам.
Настал момент, когда в распоряжении владельцев поисковых систем оказалось много обезличенного текста. Оставалось только разработать программу, которая немного его видоизменяет, улучшает согласно правилам естественного языка, находит нечто среднее по тому или иному запросу, структурирует текст и выделяет в нем главное. Так в поиске появились "быстрые ответы", а где-то рядом на свет вылупился GPT, который, говорят, что даже с признаками ИИ.
Часть человеческого трафика перестала покидать пределы поисковой системы или пользоваться ей. Люди стали переходить на сторонние ресурсы реже. Доходы владельцев сайтов снизились. Доходы корпораций, соответственно, должны были возрасти за счет увеличения количества показа рекламы в поиске, подписок на продвинутые версии GPT и отсутствия необходимости делиться с вебмастерами деньгами рекламодателей.
И все бы ничего, если бы сайты по-лучше, с постоянной аудиторией, хорошим поведенческими и внешней ссылочной массой не просели в поиске. Однако есть подозрение, чтобы получить больше трафика на ИИ-обзоры, в топ поисковой выдачи заброшены сайты по-хуже. Люди, переходя на них, разочаровываются и предпочитать GPT.
Появились те, кто начал создавать сайты на основе ответов GPT, пользуясь тем, что теперь новый ресурс легко получает трафик из поисковых систем.
Что будет дальше? Осмысленный тексты перестанут создаваться в прежних количествах или их доля уменьшится за счет роста доли сгенерированных. Вполне вероятно GPT станет обновляться своим же контентом, разнесенным по Веб, с галлюцинациями. В какой-то момент он может начать нести явную чушь.
С другой стороны, многие люди отказались от чтения книг в пользу поиска информации в интернете, хотя бумажные издания проходят редактуру, пишутся специалистами и, зачастую, не чета качеству и системности изложения информации на сайтах. Причина этого - людям не так важно качество, как удобство и дешевизна. Так что предпочтение GPT сайтам, несмотря на все его недостатки, вполне реально. А надо признать, что он имеет и некоторые преимущества.
В любом случае корпорациям выгодно, чтобы копирайтеры продолжали создавать качественный контент. С этой целью их могут кормить обещаниями "улучшайте сайт, и тогда он будет в топе, обратно вернется в рекламную систему". Но то, что в первую очередь авторы улучшат своими действиям, - это качество ответов GPT, который и убивает их ресурсы.
Возможно со временем будет найден баланс, при котором ИИ-ответы будут представлены в поиске настолько, чтобы не мешать естественному созданию контента настолько, чтобы пользователи массово не отказывались от использования ИИ. Сделать это можно, например, убрав из поисковой выдачи сайты, созданные на основе ответов GPT. Должна вернуться значимость как темы и веса ресурса, так и хороших поведенческих факторов на нем.
Вебмастера также начнут мигрировать в темы, не предполагающие, что большинство пользователей ищут в них краткие текстовые ответы. Если таковые есть, они будут со временем вычислены.
Комментарии
Отправить комментарий