БезопасностьГлавное

Мы уже находимся в кризисе мошенничества: Евгений Зотчик прокомментировал нарастающую ИИ-угрозу

О том, что искусственный интеллект (ИИ) вскоре вызовет массовый «кризис мошенничества», заявил программист и инвестор Сэм Альтман. Он заверил, что OpenAI и ChatGPT к этому не имеет отношения. Альтман уверен, что в ближайшем будущем ИИ позволит любому человеку имитировать голос и даже внешность другого настолько точно, что это будет неотличимо от реальности. Специалист по безопасности и генеральный директор Globaltek consulting Евгений Зотчик разбирался причастен ли OpenAI к разработке инструментов для имитации личности и кто на самом деле причастен к новой цифровой угрозе.

Евгений Зотчик предупреждает, что мы уже в кризисе мошенничества

Чтобы проанализировать заявление Альтмана, необходимо установить, что в «оригинальном исполнении» заявил цифровой инвестор на конференции Федеральной резервной системы США. В оригинальном переводе заявление звучит так: «AI полностью победил» большинство методов аутентификации клиентов в банках — за исключением паролей, особенно голосовую идентификацию. Некоторые банки до сих пор полагаются на голосовой отпечаток, чтобы проводить операции — это безумие. AI может легко обмануть такие системы». Так в выступлении декларируется и предупреждение о крупном кризисе мошенничества, поскольку технологии позволяют реализовывать глубокие подделки и подмену личности: «Я очень беспокоюсь по поводу неминуемого, значительного кризиса мошенничестваСейчас это голосовой звонок; скоро это будет видео или FaceTime, неотличимое от реальности».

Как квалифицированный специалист в области безопасности, могу уверенно сказать, что мы уже находимся в кризисе мошенничества. Чуть ли не каждый день слышим новости о том, как пенсионер (или начальник службы безопасности банка) отдал все сбережения мошенникам.
Дело не в так называемом «искусственном интеллекте» (правильнее, конечно, говорить — нейросеть). Мошенник — не мамонт, он не вымрет. Это часть человеческой натуры, как бы прискорбно это ни звучало.

Надо понимать, что Альтман говорит в первую очередь про США и страны Евросоюза — там проблема стоит острее. Как ни странно, но банковская система в России на порядок защищённее. Мы столкнулись с волной мошенничеств раньше, и потому стали опытнее. У нас вообще нет такого понятия, как голосовая идентификация. У нас — биометрия. Даже в метро, между прочим. А это уже другая технология: не просто фотография, а полноценная 3D-модель лица, плюс пароли и дополнительные уровни защиты. Так что нас эта волна коснётся в меньшей степени. А подделка голоса — это вообще уже стара как мир.

Учите своих близких: не отвечать на незнакомые номера, обязательно перезванивать человеку, от чьего имени был звонок. Это самые простые правила информационной гигиены.

А что думает о цифровом мошенничестве сам ИИ?

ChatGPT:

«Мошенничество — не продукт ИИ, а отражение человеческой мотивации. Искусственный интеллект лишь инструмент. Вопрос в том, кто держит его в руках и с какой целью. Подделать лицо — уже возможно. Подделать совесть — пока нет».

DeepSeek:

«Технологии всегда были обоюдоострым мечом. ИИ действительно упростит создание реалистичных фейков, но это лишь усилит потребность в цифровой грамотности и системах верификации. Вопрос не в том, кто создал инструменты, а в том, как общество научится ими пользоваться — и защищаться».

Гигачат (Сбер):

«ИИ открывает новые горизонты, но и несёт риски. Мы должны быть готовы к тому, что технология станет инструментом как созидания, так и манипуляции. Обучение пользователей и защита персональных данных — ключевые задачи ближайшего будущего».

Алиса (Яндекс):

«Предупреждение Альтмана обоснованно: развитие ИИ делает подделку голоса и внешности практически неотличимой от реальности. Это серьёзная угроза. Ответственность лежит на всех — и на разработчиках, и на пользователях.
Позиция OpenAI понятна, но инструменты вроде Sora размывают грань между допустимым и опасным. Общество должно быть готово к новым вызовам
».

Claude:

«Альтман поднимает важную проблему, но его заявление о непричастности OpenAI выглядит лукаво.
Угроза не в самих инструментах, а в том, что общество пока не готово к синтетическому контенту.
Нужны и технические решения, и образовательные программы. Иначе мы рискуем жить в эпоху, когда “видеть” больше не значит “верить”
».

Gemini (Google):

«Обеспокоенность Альтмана оправдана. AI способен к гиперреалистичной имитации голоса и внешности — это делает возможным фишинг, дипфейк-мошенничество и дезинформацию.
Даже полезные технологии могут быть использованы во вред. Обществу нужны верификация, “водяные знаки” и медиаграмотность — и как можно скорее
».

ФОТО: МИБ РФ

5 1 голос
Рейтинг статьи
0 комментариев
Старые
Новые Популярные
Межтекстовые Отзывы
Посмотреть все комментарии

Зарегистрировано в Федеральной службе по надзору в сфере связи, информационных технологий и массовых коммуникаций. Свидетельство о регистрации СМИ Эл № ФС77-87197 выдано 22 апреля 2024 г. При цитировании материалов ИА Мосинфорбюро (МИБ РФ) ссылка на mibrf.ru обязательна. Отдельные публикации могут содержать информацию, не предназначенную для пользователей до 16 лет