5 способов, которыми генеративный ИИ разрушает социальные сети
Генеративный ИИ продолжает вызывать ажиотаж, особенно в то время, как платформы социальных сетей изо всех сил пытаются внедрить эту технологию. Вот некоторые из этих недостатков.
1. Волна ИИ-слопа
Если вы являетесь постоянным пользователем таких платформ, как Facebook, вы могли сталкиваться с AI Slop. AI Slop — это мусорный продукт генеративного ИИ, включая сюрреалистические произведения искусства и бессмысленные рецепты. В настоящее время на Facebook даже есть аккаунт X, посвященный AI Slops.
Помои ИИ часто появляются на сайтах вирусного спама. И поскольку Facebook рекомендует вирусный контент, это означает, что вы, вероятно, увидите больше бессмысленного контента, чем обычно, в своей ленте. Генеративный ИИ сделал создание таких спам-постов проще, чем когда-либо, и в результате контент буквально заполонил платформы социальных сетей.
2. Потеря большей аутентичности
Социальные сети не особо выделяются в плане аутентичности. Инфлюенсеры часто показывают отрывки из своей жизни, в основном с целью продвижения идеального образа или продажи продукта, за продвижение которого им платят.
Но ИИ заводит это отсутствие реализма еще дальше. По данным SocialMediaToday, TikTok тестирует виртуальных инфлюенсеров, позволяя компаниям рекламировать себя пользователям с помощью созданных в цифровом виде аватаров. Тем временем Instagram тестирует функцию, которая позволяет инфлюенсерам создавать собственных ботов на основе ИИ, чтобы отвечать фанатам в сообщениях. Тест был анонсирован генеральным директором Meta Марком Цукербергом на его канале трансляции в Instagram.
Это разбавление незначительной подлинности в социальных сетях касается не только инфлюенсеров. ИИ используется для создания постов для пользователей в социальных сетях, таких как Reddit и X (Twitter). Хотя чат-боты, которые могут это делать, существуют уже некоторое время, введение больших языковых моделей усложнило различение настоящего и поддельного. Каждый день есть пользователи, обвиняющие других в использовании ИИ для написания постов или историй.
3. Ошибки в социальных сетях, вызванные ИИ
Платформы искусственного интеллекта от компаний социальных сетей все еще находятся в стадии разработки, а это значит, что они все еще допускают ошибки. Некоторые из этих ошибок способствуют дезинформации или снижают доверие пользователей к платформе.
Например, Meta AI ответил на пост в группе Facebook, заявив, что это родитель, зачисленный в программу для одаренных учеников, как сообщает Sky News. К счастью, поскольку ответ Meta AI четко идентифицируется на Facebook, пользователи могут понять, что он не настоящий. Но это поднимает вопросы о надежности инструментов ИИ, таких как Meta AI, которые вклиниваются в разговоры, где им не место.
Между тем, Grok AI (чатбот X) подвергся критике за предоставление ложной информации. Одним из таких случаев были обвинения в том, что игрок НБА Клэй Томпсон разгромил дом после того, как ИИ неверно истолковал баскетбольный сленг, обозначающий броски, которые не попали в корзину, как «кирпичи».
Хотя некоторые иллюзии ИИ забавны, другие ложные срабатывания более тревожны и приводят к реальным последствиям.
4. Осознайте теорию мертвого Интернета
Теория мертвого интернета — это идея о том, что большую часть контента в интернете создают боты. Хотя в прошлом это было легко высмеять, это кажется все более правдоподобным, поскольку платформы социальных сетей переполнены спамом ИИ.
Тот факт, что компании социальных сетей также интегрируют ботов в качестве пользователей, делает эту идею более реалистичной, чем раньше. Это даже привело к запуску Butterflies AI, платформы социальных сетей, где некоторые пользователи на самом деле просто боты AI. Хотя боты могут быть полезны в социальных сетях, заставлять их притворяться другими пользователями не очень привлекательно.
С точки зрения повседневного пользовательского опыта, генеративный ИИ облегчил спам-ботам задачу имитации реальных пользователей. Отличать реальных пользователей от ботов становится все сложнее.
5. Людям необходимо найти способы защитить свой контент от сканирования ИИ.
Пользователи находят разные способы защитить свой контент от использования в наборах данных ИИ. Но не всегда все так просто, как отказ. Если ваши посты публичны, скорее всего, они использовались для обучения ИИ.
Поэтому пользователи пытаются найти альтернативные решения для защиты своих данных. Это включает в себя переход на закрытый профиль, а также отравление данных. Хотя использование Nightshade для «отравления» произведений искусства не влияет на просмотр изображений пользователями, другие формы отравления данных могут повлиять на контент, который мы видим в социальных сетях.
Если больше пользователей перейдут на закрытые профили в более публичных социальных сетях, станет сложнее находить пользователей и контент, которые вам нравятся. И поскольку художники отходят от платформ, предоставляющих данные для обучения генеративному ИИ, те, кто просто хочет полюбоваться их работой, будут упускать их, если не перейдут на соответствующие платформы.
Хотя на этих платформах есть некоторые приложения для генеративного ИИ, многие считают, что нам на самом деле не нужен генеративный ИИ в социальных сетях. Но независимо от того, что мы думаем, генеративный ИИ фундаментально изменил социальные медиа во многих отношениях.
Мика Сото
Обновление 14 августа 2024 г.