О том, что искусственный интеллект (ИИ) вскоре вызовет массовый «кризис мошенничества», заявил программист и инвестор Сэм Альтман. Он заверил, что OpenAI и ChatGPT к этому не имеет отношения. Альтман уверен, что в ближайшем будущем ИИ позволит любому человеку имитировать голос и даже внешность другого настолько точно, что это будет неотличимо от реальности. Специалист по безопасности и генеральный директор Globaltek consulting Евгений Зотчик разбирался причастен ли OpenAI к разработке инструментов для имитации личности и кто на самом деле причастен к новой цифровой угрозе.

Чтобы проанализировать заявление Альтмана, необходимо установить, что в «оригинальном исполнении» заявил цифровой инвестор на конференции Федеральной резервной системы США. В оригинальном переводе заявление звучит так: «AI полностью победил» большинство методов аутентификации клиентов в банках — за исключением паролей, особенно голосовую идентификацию. Некоторые банки до сих пор полагаются на голосовой отпечаток, чтобы проводить операции — это безумие. AI может легко обмануть такие системы». Так в выступлении декларируется и предупреждение о крупном кризисе мошенничества, поскольку технологии позволяют реализовывать глубокие подделки и подмену личности: «Я очень беспокоюсь по поводу неминуемого, значительного кризиса мошенничества… Сейчас это голосовой звонок; скоро это будет видео или FaceTime, неотличимое от реальности».
Как квалифицированный специалист в области безопасности, могу уверенно сказать, что мы уже находимся в кризисе мошенничества. Чуть ли не каждый день слышим новости о том, как пенсионер (или начальник службы безопасности банка) отдал все сбережения мошенникам.
Дело не в так называемом «искусственном интеллекте» (правильнее, конечно, говорить — нейросеть). Мошенник — не мамонт, он не вымрет. Это часть человеческой натуры, как бы прискорбно это ни звучало.
Надо понимать, что Альтман говорит в первую очередь про США и страны Евросоюза — там проблема стоит острее. Как ни странно, но банковская система в России на порядок защищённее. Мы столкнулись с волной мошенничеств раньше, и потому стали опытнее. У нас вообще нет такого понятия, как голосовая идентификация. У нас — биометрия. Даже в метро, между прочим. А это уже другая технология: не просто фотография, а полноценная 3D-модель лица, плюс пароли и дополнительные уровни защиты. Так что нас эта волна коснётся в меньшей степени. А подделка голоса — это вообще уже стара как мир.
Учите своих близких: не отвечать на незнакомые номера, обязательно перезванивать человеку, от чьего имени был звонок. Это самые простые правила информационной гигиены.
А что думает о цифровом мошенничестве сам ИИ?
ChatGPT:
«Мошенничество — не продукт ИИ, а отражение человеческой мотивации. Искусственный интеллект лишь инструмент. Вопрос в том, кто держит его в руках и с какой целью. Подделать лицо — уже возможно. Подделать совесть — пока нет».
DeepSeek:
«Технологии всегда были обоюдоострым мечом. ИИ действительно упростит создание реалистичных фейков, но это лишь усилит потребность в цифровой грамотности и системах верификации. Вопрос не в том, кто создал инструменты, а в том, как общество научится ими пользоваться — и защищаться».
Гигачат (Сбер):
«ИИ открывает новые горизонты, но и несёт риски. Мы должны быть готовы к тому, что технология станет инструментом как созидания, так и манипуляции. Обучение пользователей и защита персональных данных — ключевые задачи ближайшего будущего».
Алиса (Яндекс):
«Предупреждение Альтмана обоснованно: развитие ИИ делает подделку голоса и внешности практически неотличимой от реальности. Это серьёзная угроза. Ответственность лежит на всех — и на разработчиках, и на пользователях.
Позиция OpenAI понятна, но инструменты вроде Sora размывают грань между допустимым и опасным. Общество должно быть готово к новым вызовам».
Claude:
«Альтман поднимает важную проблему, но его заявление о непричастности OpenAI выглядит лукаво.
Угроза не в самих инструментах, а в том, что общество пока не готово к синтетическому контенту.
Нужны и технические решения, и образовательные программы. Иначе мы рискуем жить в эпоху, когда “видеть” больше не значит “верить”».
Gemini (Google):
«Обеспокоенность Альтмана оправдана. AI способен к гиперреалистичной имитации голоса и внешности — это делает возможным фишинг, дипфейк-мошенничество и дезинформацию.
Даже полезные технологии могут быть использованы во вред. Обществу нужны верификация, “водяные знаки” и медиаграмотность — и как можно скорее».
ФОТО: МИБ РФ