ООН

Программа может написать правдоподобный текст на любую тему — от проблемы глобального потепления до миграционного кризиса.

Автоматические генераторы текста уже успешно применяются для создания чат-ботов, обзоров продуктов и сочинения поэзии. Однако в руках злоумышленников эта технология может быть опасна, так как ее можно использовать для создания правдоподобных фейковых новостей. Чтобы доказать это, исследователи из ООН за 13 часов научили ИИ-алгоритм подделывать речи политиков, пишет «Фокус» со ссылкой на MIT Technology Review.

Ученые взяли простой текстовый генератор, обученный на текстах из Википедии, и «скормили» ему все тесты речей, произнесенных на Генеральной Ассамблее ООН с 1970-го по 2015-й год. Спустя 13 часов модель научилась придумывать вполне реалистичные речи на самые разные темы — от ядерного разоружения до миграционного кризиса.

Исследователи проверили модель на нескольких типах вводных: например, название темы («изменение климата») или провокационные фразы ( «мигранты виноваты в …»). Оказалось, что в первом случае результаты на 90% соответствовали стилю реальных речей, произносимых в ООН, во втором — на 60%. Весь эксперимент обошелся в $7,8 — столько пришлось заплатить за использование облачных ресурсов для обучения алгоритма.

Исследование в очередной раз показывает, насколько легко с современными технологиями можно продуцировать фейковые новости. По словам авторов, ученым стоит подумать над разработкой новых способов обнаружения поддельного контента.