News
Лента
News
Вторник
Май 17
USD
454.99
EUR
474.78
RUB
7.21
Вся лента

New York Times испытала на людях новейшие алгоритмы текстовой генерации. Они стремительно улучшаются: все труднее отличить текст, написанный человеком, от составленного машиной. Максимум через пару лет это будет совершенное оружие массового поражения, инструментов противодействия которому пока нет, передает Hightech+

За последнее время появилось два впечатляющих алгоритма, синтезирующих правдоподобные тексты в различных жанрах. Один из них — GPT-2 — создали в OpenAI и сразу засекретили, настолько опасным оказалось попадание его «не в те руки». Второй вариант представили исследователи из Института Пола Аллена в Сиэтле. И здесь, напротив, разработчики намерены раскрыть в ближайшее время все детали. New York Times разобралась в прогрессе технологии и ее опасностях. Теперь журналисты уверены, что через пару лет интернет накроет волна фальшивых сообщений, в сравнении с которой сегодняшние усилия любой «фабрики троллей» с людьми покажутся детскими шалостями.

 NYT продолжает исследование  в формате поста в соцсети, который ИИ разворачивает из различных вводных. Журналисты выбрали, кого надо осудить в заметке — республиканцев или демократов — а также за что: засилье иммигрантов либо рост стоимости здравоохранения. Результат впечатляет: например, в одном из сообщений даже есть «ссылка» на поддельный твит президента Дональда Трампа.

Впрочем, NYT отмечает, что на большой выборке видны и недостатки ИИ: иногда в статьях нет логики, а некоторые результаты вовсе не имеют смысла.

Тем не менее, журналисты убеждены: в ближайшие годы модели текстовой генерации пройдут тот же путь, что проделали состязательные генеративные нейросети в создании правдоподобных фото и видео. И сгенерированные тексты рано или поздно станут неотличимы от написанных человеком.

А значит, нас буквально накроет волна фейковых текстов, новостей и мнений, если не предпринять серьезных усилий, чтобы защитить пока ничего не подозревающих пользователей от нового вида оружия. В OpenAI посчитали необходимым закрыть свой алгоритм. В Институте Аллена, напротив, убеждены, что если алгоритм не раскрыть, подобрать ключи к распознаванию фальшивых ИИ-новостей будет невозможно.

Этого же мнения придерживается и глава исследующей фейки ИИ-команды Facebook Манохар Палури: «Если у вас на руках генеративная модель, значит, есть и способы противостоять ей». 

!
Этот текст доступен на   Հայերեն
Распечатать
Читать также:
Все
Маск обвинил Twitter в «манипулировании» пользователями
Маск, который в настоящее время находится в процессе покупки Twitter, отметил, что соцсеть в настоящее время предлагает пользователям две версии своей ленты, известные как «Последние твиты» и «Главная»...
В Windows нашли встроенный VPN
В Microsoft рассказали, что это упрощенный VPN, не требующий установки стороннего ПО или расширений для браузера...
Илон Маск временно приостановил свою сделку о покупке Twitter Inc за 44 миллиарда долларов
Акции компании социальных сетей упали на 17,7% до 37,10 доллара на премаркете, что является самым низким уровнем с тех пор, как Маск раскрыл свою долю в компании в начале апреля и...
В Армении в ИТ-сфере учреждено шесть образовательных премий
В конкурсе среди лучших студентов победитель «Главного приза» получит…
В WhatsApp появится новая возможность для пользователей
По данным портала, в бета-версии WhatsApp под номером 2.2218.0 для компьютеров рядом с каждым сообщением появилась кнопка для быстрого ответа...
Apple потеряла статус самой дорогой компании в мире
По данным агентства, рыночная капитализация компании составила 2,43 триллиона долларов, а Apple — 2,38 триллиона долларов...