Станислав Ашманов: «Отличить дипфейк сегодня технически невозможно»
Эксперт в области ИИ Станислав Ашманов дал комментарий для «России 1» на фоне роста возможностей нейросетей и опасений их дальнейшего развития. Выпуск программы телеканала коснулся обратной, темной стороны искусственного интеллекта

Создатель ChatGPT и «крёстный отец» искусственного интеллекта Джеффри Хинтон покинул OpenAI, чтобы иметь возможность открыто говорить об угрозах человечеству со стороны ИИ. По его мнению, технологии смогут обойти те ограничения, которые в них заложили, потому что они умеют программировать, и в будущем искусственный интеллект имеет все шансы стать умнее человека и начать манипулировать им.

Коварной частью искусственного интеллекта можно назвать и голосовые дипфейки, которые сегодня используют для мошеннических действий. Например, в 2019 году топ-менеджер британской энергетической компании перевел почти $250 тыс. после телефонного разговора со своим «начальником». Нейросети сумели воспроизвести не только голос, но и немецкий акцент руководителя.

«Дипфейк сейчас можно делать вот так, на раз. Для этого технически почти ничего не нужно. И это тоже почти ничего не стоит. Найдя конкретную интересную публичную персону, можно обучить синтез речи и после этого сделать видеоролик, где он говорит то, что на самом деле никогда не говорил. Технических способов отличить генеративный контент от настоящего, созданного человеком, невозможно», — прокомментировал ситуацию генеральный директор «Наносемантики» Станислав Ашманов.

Посмотреть выпуск программы и прослушать комментарий Станислава Ашманова можно здесь

Похожие статьи