Nixse
0

Технология «дипфейк» слишком проблематична для ИИ?

Технологическое развитие предлагает человечеству гаджеты, которые упрощают повседневную жизнь миллионов людей. Каждый день технология становится все более изощренной. Она легко адаптируется к активному ритму повседневной жизни. Тем не менее, технологии, какими бы хорошими они ни были, могут легко изменяться и использоваться для других вредных целей.

Слово «дипфейк» происходит от сочетания двух слов «глубокой изучение» и «фальшивка». Технология основана на способности искусственного интеллекта синтезировать любое существующее изображение на любом данном исходном изображении или видео. Эта техника машинного обучения называется генеративной состязательной сетью, и ее можно использовать для создания фейковых новостей и умышленных мистификаций.

AI created the deepfake System

Социальные медиа играют огромную роль в распространении повседневной информации в массы. Медиа манипуляции не новая тенденция и всегда присутствовала в нашей жизни. Однако в настоящее время становится все проще видоизменять любой материал до неузнаваемости. В некотором смысле, искусственный интеллект может ухудшить ситуацию, передав больше данных и силы в руки частных корпораций.

Хотя технология создания цифровых версий реальных людей еще не совершенна, она довольно хороша. Программное обеспечение для создания такого рода цифровых фейков не требует производства голливудского уровня, и это вполне доступно.

Регулируются ли «дипфейки»?

Наличие «дипфейков» создает новые проблемы, которые вряд ли могут быть решены одной технологией. СМИ и правда никогда не были в стабильных, дружеских отношениях. Искажение и избирательное вещание – любимчики социальных сетей к массовой дезинформации.

AI deepfake regulation

Сегодня «дипфейки» позволяют людям видоизменять видео и изображения с помощью машинного обучения, и результаты этих манипуляций почти невозможно обнаружить человеческим глазом.

Чтобы бороться с этой проблемой, Facebook объявил, что выпускает набор данных, позволяющий людям тестировать новые модели, запрограммированные на обнаружение «дипфейков». Есть также такие стартапы, как TruePic. Он использует искусственный интеллект и технологию блокчейна для обнаружения обработанных фотографий.

На правительственном уровне недавно Агентство перспективных исследований в области обороны США (DARPA) инвестировало средства в судебно-медицинскую экспертизу. Система отслеживает различия в пикселях видео, чтобы обнаружить любые манипуляции.

Есть ли необходимость в регулировании «дипфейков»?

«Дипфейки» представляют собой серьезную угрозу для конфиденциальности и национальной безопасности, главная проблема – это не сбор данных, а регулирование. В отношении сбора информации в интернете нет никаких правил. Однако это очень важно; если законы о фальсификации будут когда-либо существовать, им непременно придется учитывать свободу слова. Политические пародии и сатирические комментарии обычно используют фейковые видеоролики, чтобы подчеркнуть их ироническую точку зрения. Они также помогают скрыть личность людей, которые нуждаются в защите.

Существует тонкая грань между регулированием и ограничением. Проблема с «дипфейками» не может быть решена через суд, но какое-то юридическое вмешательство неизбежно. Однако правительственные ограничения на публичную информацию могут вызвать серьезный бунт. Технология «дипфейк» не исчезнет. Она будет развиваться. Таким образом, для этого потребуется какое-то техническое и правительственное решение, основанное на компромиссе.



Вам также могут понравиться
Оставьте ответ

Ваш электронный адрес не будет опубликован.