В компании Илона Маска научили искусственный интеллект продуцировать фейковые новости

Некоммерческая исследовательская компания OpenAI, основанная Илоном Маском, разработала алгоритм, который умеет составлять очень правдоподобные вымышленные истории на абсолютно любую тему. Для работы алгоритму нужна лишь горстка ключевых слов, которые будут служить в качестве отправной точки.

Изначально система планировалась, как обычный языковой ИИ, который мог бы отвечать на вопросы на основе проанализированного текста. Но вскоре исследователи поняли, что изобрели настоящее чудовище.

По мнению разработчиков, система может быть использована для создания убедительной дезинформации в “промышленных масштабах”.

Представьте, что вы – некая публичная персона, и у вас есть враги. Недоброжелатели могут вредить вам  придумывая о вас различные фейковые новости, но количество таких историй не будет массовым. В конце концов человеческое воображение не безгранично, и чтобы по-настоящему утопить ваше имя в потоках информационных помоев, вашим врагам придется раскошелиться на приличный штат “писателей”.

Искусственный интеллект сильно упрощает задачу. Ему не нужна зарплата, не нужен отдых, он работает быстро. За сутки он сгенерирует такие объемы убедительного бреда, что в нем бесследно затеряются любые крупицы достоверной информации. Это – мощнейший инструмент информационной войны, которым будут пользоваться люди, желающие скрыть правду, напустить как можно больше пыли и наплодить побольше противоречивых версий.

Разработчики из OpenAI настолько испугались собственного создания, что решили ни при каких обстоятельствах не выставлять его напоказ. Общественности будет доступна лишь базовая версия ИИ, не способная к продуктивному фейкотворчеству.

Да и в нынешнем виде технологию было бы трудно использовать во вред. По словам Джека Кларка, директора по политике OpenAI, разработка все еще остается слишком сырой. Довольно часто она пишет истории, которые явно скопированы или слишком бессвязны. Но иногда ИИ рождает вполне убедительные фейки. Джек Кларк утверждает, что система способна к самообучению, так что ей потребуется всего год или два, чтобы набрать полную силу.

Проблема лишь в том, что OpenAI – одна некоммерческая организация. Эта компания была создана специально для того, чтобы следить за этикой разработок в сфере ИИ. Представители OpenAI могут предупреждать мир об опасности, но реальной власти у них нет. Если кто-то другой решит создать аналогичный инструмент, никто ему не помешает. А значит, в ближайшем будущем интернет может превратиться в настоящую помойку, где отличить ложь от правды станет практически невозможно.

Источник

Заглавная иллюстрация: https://ua.depositphotos.com

 

Теги:

ТОБІ СПОДОБАЄТЬСЯ

Ісландія запрошує туристів погорлати на її просторах

Настав час трохи випустити пару, вважає туристична рада Ісландії, для чого вона запрошує туристів погорлати у всю міць своїх легенів на просторах острова.

Новий Lexus UX таргетується на кожного по-своєму

Lexus і BBDO Ukraine створили таргетинг-кампанію про новинку в авторяду Lexus UX. Звичайно, можна було створити звичний шум навколо появи ...

Маша Єфросиніна і WOG відкривають «Дорогу добра»

З 15 липня мережа АЗК WOG пропонує купувати напої у фіолетових горнятках з єдинорогами. Саме так щороку розпочинається благодійна акція ...

Компанія Apple створила кумедний мініфільм про віддалену роботу

Apple створила сиквел до ролика «The Underdogs», який показує чимало моментів, добре знайомих всім, кому останнім часом доводилося працювати дистанційно.

Рейтинг медіа агентств України відповідно до медіа бюджетів

Всеукраїнська рекламна коаліція представляє Рейтинг медіа агентств України відповідно до медіа бюджетів (білінгів) за 2019 рік Мета рейтингу – показати ...

45-метрові декорації та зйомка одним кадром: як Ajax Systems знімали новий продуктовий ролик

На жаль, Супермена немає, а Робокоп — вигадка. На щастя, маємо реального супергероя, який щодня протистоїть вогню, воді та злочинному ...