Is Deepfake too problematic for AI to handle?

Технология «дипфейк» слишком проблематична для ИИ?

Технологическое развитие предлагает человечеству гаджеты, которые упрощают повседневную жизнь миллионов людей. Каждый день технология становится все более изощренной. Она легко адаптируется к активному ритму повседневной жизни. Тем не менее, технологии, какими бы хорошими они ни были, могут легко изменяться и использоваться для других вредных целей.

Слово «дипфейк» происходит от сочетания двух слов «глубокой изучение» и «фальшивка». Технология основана на способности искусственного интеллекта синтезировать любое существующее изображение на любом данном исходном изображении или видео. Эта техника машинного обучения называется генеративной состязательной сетью, и ее можно использовать для создания фейковых новостей и умышленных мистификаций.

Социальные медиа играют огромную роль в распространении повседневной информации в массы. Медиа манипуляции не новая тенденция и всегда присутствовала в нашей жизни. Однако в настоящее время становится все проще видоизменять любой материал до неузнаваемости. В некотором смысле, искусственный интеллект может ухудшить ситуацию, передав больше данных и силы в руки частных корпораций.

Хотя технология создания цифровых версий реальных людей еще не совершенна, она довольно хороша. Программное обеспечение для создания такого рода цифровых фейков не требует производства голливудского уровня, и это вполне доступно.

Регулируются ли «дипфейки»?

Наличие «дипфейков» создает новые проблемы, которые вряд ли могут быть решены одной технологией. СМИ и правда никогда не были в стабильных, дружеских отношениях. Искажение и избирательное вещание – любимчики социальных сетей к массовой дезинформации.

Сегодня «дипфейки» позволяют людям видоизменять видео и изображения с помощью машинного обучения, и результаты этих манипуляций почти невозможно обнаружить человеческим глазом.

Чтобы бороться с этой проблемой, Facebook объявил, что выпускает набор данных, позволяющий людям тестировать новые модели, запрограммированные на обнаружение «дипфейков». Есть также такие стартапы, как TruePic. Он использует искусственный интеллект и технологию блокчейна для обнаружения обработанных фотографий.

На правительственном уровне недавно Агентство перспективных исследований в области обороны США (DARPA) инвестировало средства в судебно-медицинскую экспертизу. Система отслеживает различия в пикселях видео, чтобы обнаружить любые манипуляции.

Есть ли необходимость в регулировании «дипфейков»?

«Дипфейки» представляют собой серьезную угрозу для конфиденциальности и национальной безопасности, главная проблема – это не сбор данных, а регулирование. В отношении сбора информации в интернете нет никаких правил. Однако это очень важно; если законы о фальсификации будут когда-либо существовать, им непременно придется учитывать свободу слова. Политические пародии и сатирические комментарии обычно используют фейковые видеоролики, чтобы подчеркнуть их ироническую точку зрения. Они также помогают скрыть личность людей, которые нуждаются в защите.

Существует тонкая грань между регулированием и ограничением. Проблема с «дипфейками» не может быть решена через суд, но какое-то юридическое вмешательство неизбежно. Однако правительственные ограничения на публичную информацию могут вызвать серьезный бунт. Технология «дипфейк» не исчезнет. Она будет развиваться. Таким образом, для этого потребуется какое-то техническое и правительственное решение, основанное на компромиссе.