Галлюцинации искусственного интеллекта, или adversarial inputs

Галлюцинации искусственного интеллекта, или adversarial inputs

Человеческое воображение и галлюцинации уже много лет являются предметом изучения психоаналитиков. Но что, если у ИИ они тоже могут быть? Что происходит в мозге искусственного разума и насколько это опасно для людей? Благодаря исследованиям ученых, мы теперь имеем представление о потенциале галлюцинаций ИИ и о проблемах, к которым они могут привести.

Придуманные психоделические образы

Галлюцинации искусственного интеллекта, или adversarial inputs

Google уже много лет инвестирует значительные средства в исследования ИИ. Искусственная нейронная сеть компании (ANN) создала серию психоделических картинок после того, как перед ней поставили задачу интерпретировать загруженные изображения по своему усмотрению. Результаты потрясли даже видавших виды ученых.

ИИ мог различать картинки и генерировать новые благодаря огромному количеству визуальных элементов, уже хранящихся в его памяти. Он также мог создавать изображения по запросу ученых. Таким образом, если человек просил ИИ показать “морскую звезду”, сеть выдавала ее изображение как из своей памяти, так и из собственного воображения.

Спустя некоторое время, команда использовала возможности ИИ более высокого уровня. В этом случае машина выдала весьма абстрактные и даже неожиданные результаты, где “деревья превратились в кристаллическую архитектуру, а листья – в волшебных птиц и насекомых.

“По сути, эти “сверхинтерпретации” представляют собой фрактальное слияние ранее изученных признаков, созданных циклом обратной связи”, – объясняют ученые.

Создание несуществующего видео

Известный производитель графических чипов Nvidia смог добиться более интересных результатов с помощью своего “галлюцинирующего” ИИ – он создал замедленное видео из стандартного видео. Обычно съемка качественного замедленного видео – дело дорогое, поскольку для этого требуется специальное оборудование.

Но ИИ справился с этой задачей без особого труда и дополнительной техники. Он записал видео со скоростью 30 к/с и преобразовал его в плавное замедленное движение “галлюцинируя” недостающий контент. Другими словами, он добавил дополнительные кадры между существующими кадрами, чтобы удлинить видео и сделать его похожим на профессионально снятое замедленное видео, продемонстрировав тем самым более дешевый способ создания подобного контента.

Используя 11 000 различных видеороликов, снятых со скоростью 240 к/с, а также графические процессоры Nvidia Tesla V100 и систему углубленного обучения PyTorch с ускорением cuDNN, команда смогла обучить ИИ генерировать дополнительный контент.

Проблемы, связанные с галлюцинациями ИИ

Несмотря на то, что концепция галлюцинаций ИИ может показаться интересной и даже полезной, в реальных жизненных ситуациях она способна создать множество проблем. Поскольку ИИ научился использовать свою собственную интерпретацию к конкретному изображению, в конечном итоге, он может начать действовать против самой цели, для которой был создан.

Когда задача ИИ состоит в том, чтобы записывать изображения и идентифицировать определенных подозреваемых, которые входят в здание, то он должен выполнять именно это. Но если ИИ начинает “галлюцинировать”, добавляя свои собственные образы к записанным материалам или заменяя лицо другим лицом, которое он считает “похожим”, то безопасность здания может оказаться под угрозой.

Пока ученые придерживаются единого мнения, что в реальной жизни ИИ должен работать так, как от него ожидают, а не так, как ему хотелось бы.

Исхаков Максим

Руководитель информационного портала "Безопасник". Директор компании по продаже и установке систем безопасности.

Оцените автора
Портал о системах видеонаблюдения и безопасности
Добавить комментарий