Введите верный e-mail адрес
Подписаться
Вы успешно подписались на нашу рассылку

Теория «мертвого интернета»: как алгоритмы вытесняют реальность из онлайн-пространства

Human Constanta
12 ноября 2024 Года

В последние годы интернет все больше напоминает поле боя, где искусственный интеллект (ИИ) захватывает пространство, ранее принадлежавшее человеку. Эта тревожная тенденция проявляется не только в виде фейковых новостей, но и в виде дипфейков. Многим пользовател_ницам кажется, что «человеческий интернет умирает», и это ощущение только усиливается с каждым годом.

Павлины становятся жертвами ИИ

Одним из последних тревожных звоночков стало обсуждение на Reddit. При запросе «baby peacock» (в переводе с анг. «детеныш павлина») в Google, результаты показали: из 15 предложенных вариантов, 11 оказались сгенерированы алгоритмами. Для тех, кто растет в эпоху ИИ, будет особенно сложно отличить искусственную картинку от настоящей. Это не просто очередной тренд, а глобальная проблема, которая заставляет задуматься о будущем интернета.

Еще один яркий пример — фейковый ресторан Ethos  в Остине, США, который  привлекает пользовател_ниц своими аппетитными фотографиями блюд. И только после публикации на Reddit стало ясно, что ресторан никогда не существовал, а его «генеральный директор» — не более чем чат-бот. Этот пример стал для многих подтверждением теории «мертвого интернета», согласно которой значительная часть онлайн-контента создается не людьми, а ИИ.

Теория «мертвого интернета»: правда или паранойя

Теория «мертвого интернета» утверждает, что всемирная паутина была захвачена ботами и ИИ-алгоритмами, которые управляют поведением людей. Скептики считают, что эта идея — не более чем очередная конспирологическая теория. Однако примеры фейковых ресторанов, генерации ИИ-контента заставляют задуматься.

Проблема усугубляется тем, что боты и алгоритмы не просто создают контент, но и влияют на восприятие реальности. Например, фейковые «лайки» и «репосты» создают иллюзию популярности тех или иных идей, услуг и товаров, заставляя людей принимать решения, основанные на ложной информации.

Искусство или плагиат

Дипфейки  — не просто проблема для пользовател_ниц поисковых систем. Это также вызов для художни_ц, фотограф_ок и других креативных специалист_ок. Алгоритмы ИИ обучаются на огромных массивах данных, включая работы реальных людей. Однако в результате сгенерированный контент, часто представляет собой переработку оригинальных произведений, что вызывает вопросы о правах на интеллектуальную собственность.

Некоторые художни_цы и фотограф_ки уже заявляют, что их работы были использованы для обучения ИИ без их разрешения, а итоговый контент фактически является плагиатом. 

Как сохранить человечность в цифровом мире

С каждым днем пользовател_ницам становится все сложнее отличить реальный контент от сгенерированного. Некоторые предлагают искать способы фильтрации ИИ-контента, добавляя в поисковые запросы фразы вроде «до 2020 года», чтобы избежать появления изображений, созданных после бума ИИ. Но это временное решение, которое не решает проблему в корне.

Алгоритмы могут стать ключевым инструментом в борьбе с дезинформацией и фальсификацией, но это также означает, что люди все больше будут зависеть от машин в определении того, что «настоящее», а что — нет.

Получается, что сохранение реальности в интернете требует того же оружия, которое и создало проблему.  Вопрос лишь в том, сможет ли человек найти баланс между машинной эффективностью и человеческой креативностью, или же интернет станет полностью «мертвым», управляемым только алгоритмами.

ПОХОЖИЕ НОВОСТИ
Лаборатория цифровых свобод

Дивиденды лжеца: как дипфейки подрывают доверие общества к информации

Разграничить правду и вымысел становится все сложнее.

Как нюансы человеческой мимики помогают распознавать дипфейки

В современном мире, где технологии стремительно развиваются, мимика становится не только средством коммуникации, но и инструментом для обнаружения дипфейков. 

Какие права человека нарушает дипфейк

Одним из вызовов, с которым сталкивается общество в свете развития инноваций, является технология дипфейк, которая может нарушать права человека. Давайте разберемся какие права нарушают дипфейки.
Лаборатория цифровых свобод

Маски реальности: что скрывается за дипфейками

Термин «дипфейк» происходит от английских слов «deep learning» (глубокое обучение) и «fake» (подделка). Это технология искусственного интеллекта (ИИ), позволяющая создавать реалистичные фальшивые изображения и видеоролики.

Новые правила для виртуальной реальности: кто несёт ответственность за распространение дипфейков

Последствиями распространения дипфейков могут быть как урон репутации отдельных людей, так и манипуляция общественным мнением в масштабах значимых событий, таких как выборы.