
Искусственный интеллект обманывает нас бесчисленное количество раз в нашей жизни. Не исключен обман и в новостных программах. С генеральным директором Surf Security Моти Яаковом мы поговорили о том, что нас ждет в этой области в будущем, а также о технологии, позволяющей идентифицировать созданные искусственным интеллектом звуковые и визуальные имитации конкретного человека.
Что касается существующих сегодня возможностей обмана, Моти Яаков упоминает: «Возможность создать «дипфейк» изображения или голоса в течение нескольких часов, записав его на видео или звуковую дорожку, становится все более и более простой. Уже существует несколько инструментов: некоторые законные, а некоторые используются хакерами и преступниками и позволяют делать нечто, включая правильное движение губ. Достаточно вставленной в текст небольшой записи - и жертва получает запись или видео и считает, что это говорит человек. Для него это родственник, начальник или коллега, и для человеческого уха это звучит почти одинаково».
Хакеры и преступники используют эти механизмы для осуществления перевода средств или одобрения перевода средств посредством такого голосового использования в различных средствах массовой информации, будь то в WhatsApp или на других платформах.
Если не считать изображений и звукового обмана, «вы можете показать видео, которое выглядит совершенно реальным, записать любой текст, и он появится на том же языке и в том же диапазоне, что и у реального говорящего. Мы видели это на выборах, когда они использовали возможность подделывать голоса других людей, и сегодня существуют инструменты, которые обнаруживают это. Наша технология не единственная. Однако нашим преимуществом является возможность проверить в течение нескольких секунд, является ли это дипфейком, а также с тем уровнем точности, которого мы достигли, и очень высоким процентом определения того, был ли видео или аудиофайл создан Искусственным интеллектом или нет».
Так как же это происходит? Как технология, представленная Моти Яаковом, предотвращает мошенничество?
«В нашем аудио всегда присутствуют фоновые шумы. Есть и другие индикаторы, которые существуют в естественном голосе по сравнению с машинным голосом, и мы знаем, как за несколько секунд распознать те фоновые шумы и те характеристики естественного голоса, которые человеческий голос ухо не слышит, но в браузере мы знаем, как распознать и предупредить пользователя о том, что человек, находящийся на другой стороне, использует искусственный интеллект для создания того же голоса или видео».
«Наша цель — охватить организации, занимающиеся вопросами безопасности, а также организации, которым важно остерегаться дипфейка, например, новостные организации, полицию и правительственные органы, которым важно знать, реальна ли информация», — говорит он, «потому что в действительности это всегда «кошки-мышки» - Хакеры наступают и оборонные организации тоже наступают. Сегодня можно создавать дипфейк видео очень высокого уровня и в будущем это может произойти за несколько минут и на уровне, на котором человеческому уху будет очень сложно установить разницу. Хакеры становятся все более изощренными и в будущем возможности защиты также улучшатся».
Яаков рассказал о большом международном интересе к продукции его компании. «Есть несколько запросов от правительств и силовых структур, а также от информационных агентств, которые хотят убедиться, что информация, которую они получили в Telegram или любых других СМИ, достоверна, и мы даем возможность проанализировать видео и узнать, достоверно оно или же это фейк».