Технология «дипфейк» слишком проблематична для ИИ?
Технологическое развитие предлагает человечеству гаджеты, которые упрощают повседневную жизнь миллионов людей. Каждый день технология становится все более изощренной. Она легко адаптируется к активному ритму повседневной жизни. Тем не менее, технологии, какими бы хорошими они ни были, могут легко изменяться и использоваться для других вредных целей.
Слово «дипфейк» происходит от сочетания двух слов «глубокой изучение» и «фальшивка». Технология основана на способности искусственного интеллекта синтезировать любое существующее изображение на любом данном исходном изображении или видео. Эта техника машинного обучения называется генеративной состязательной сетью, и ее можно использовать для создания фейковых новостей и умышленных мистификаций.
Социальные медиа играют огромную роль в распространении повседневной информации в массы. Медиа манипуляции не новая тенденция и всегда присутствовала в нашей жизни. Однако в настоящее время становится все проще видоизменять любой материал до неузнаваемости. В некотором смысле, искусственный интеллект может ухудшить ситуацию, передав больше данных и силы в руки частных корпораций.
Хотя технология создания цифровых версий реальных людей еще не совершенна, она довольно хороша. Программное обеспечение для создания такого рода цифровых фейков не требует производства голливудского уровня, и это вполне доступно.
Регулируются ли «дипфейки»?
Наличие «дипфейков» создает новые проблемы, которые вряд ли могут быть решены одной технологией. СМИ и правда никогда не были в стабильных, дружеских отношениях. Искажение и избирательное вещание – любимчики социальных сетей к массовой дезинформации.
Сегодня «дипфейки» позволяют людям видоизменять видео и изображения с помощью машинного обучения, и результаты этих манипуляций почти невозможно обнаружить человеческим глазом.
Чтобы бороться с этой проблемой, Facebook объявил, что выпускает набор данных, позволяющий людям тестировать новые модели, запрограммированные на обнаружение «дипфейков». Есть также такие стартапы, как TruePic. Он использует искусственный интеллект и технологию блокчейна для обнаружения обработанных фотографий.
На правительственном уровне недавно Агентство перспективных исследований в области обороны США (DARPA) инвестировало средства в судебно-медицинскую экспертизу. Система отслеживает различия в пикселях видео, чтобы обнаружить любые манипуляции.
Есть ли необходимость в регулировании «дипфейков»?
«Дипфейки» представляют собой серьезную угрозу для конфиденциальности и национальной безопасности, главная проблема – это не сбор данных, а регулирование. В отношении сбора информации в интернете нет никаких правил. Однако это очень важно; если законы о фальсификации будут когда-либо существовать, им непременно придется учитывать свободу слова. Политические пародии и сатирические комментарии обычно используют фейковые видеоролики, чтобы подчеркнуть их ироническую точку зрения. Они также помогают скрыть личность людей, которые нуждаются в защите.
Существует тонкая грань между регулированием и ограничением. Проблема с «дипфейками» не может быть решена через суд, но какое-то юридическое вмешательство неизбежно. Однако правительственные ограничения на публичную информацию могут вызвать серьезный бунт. Технология «дипфейк» не исчезнет. Она будет развиваться. Таким образом, для этого потребуется какое-то техническое и правительственное решение, основанное на компромиссе.