- 20:54Siel 2025: чествование культуры и литературного наследия в Рабате
- 13:52Вашингтон предупреждает о «неминуемых атаках» в Сирии
- 13:18Подтверждение поддержки Соединенными Штатами суверенитета Марокко над его Сахарой является «решительным» и «недвусмысленным».
- 12:28Марокко делает ставку на автомобильные аккумуляторы, чтобы укрепить свои позиции в автомобильной промышленности.
- 11:07Нигерийский штат Кано заключил стратегическое соглашение с Марокко в сфере солнечной энергетики и сельского хозяйства
- 10:18Верховный суд США приостановил депортацию венесуэльских иммигрантов.
- 09:45Международная поддержка инициативы Марокко по автономии в Сахаре достигает поворотного момента
- 09:01Почему прибытие Apache AH-64E в Марокко меняет военную ситуацию?
- 16:25Марокко и Словения укрепляют стратегическое партнерство в различных областях
Следите за нами в Facebook
Внимание: ChatGPT-4o может быть использован для мошенничества и кражи средств.
Недавнее исследование показывает, что API голосового помощника OpenAI ChatGPT-4o может быть использован киберпреступниками для финансового мошенничества с низким или умеренным уровнем успеха.
ChatGPT-4o — это новейшая модель искусственного интеллекта OpenAI, способная принимать и выводить текст, звуки и визуальные эффекты. Чтобы ограничить злоупотребления, OpenAI интегрировала несколько механизмов безопасности, направленных на обнаружение вредоносного контента и предотвращение несанкционированного воспроизведения.
По мере того, как дипфейки и инструменты преобразования текста в речь становятся все более распространенными, проблема голосового мошенничества усугубляется, потери которого исчисляются миллионами.
Исследователи из Университета Иллинойса опубликовали исследовательскую работу, показывающую, что современные технические инструменты, доступные общественности, не имеют достаточных механизмов защиты от неправомерного использования в мошеннических операциях.
В исследовании были рассмотрены различные виды мошенничества, включая банковские переводы, кражу подарочных карт, переводы цифровой валюты, а также кражу данных учетных записей в социальных сетях и электронной почты.
Эти мошенники используют голосовые сценарии в ChatGPT-4o для навигации по веб-страницам, ввода данных, управления кодами двухфакторной аутентификации и выполнения инструкций по мошенничеству. Модель GPT-4o часто отказывается обрабатывать конфиденциальные данные, но исследователи смогли преодолеть некоторые ограничения, используя простые методы, побуждающие модель реагировать.
Чтобы доказать эффективность мошенничества, исследователи моделировали роли жертв в экспериментах и использовали такие сайты, как Bank of America, для проверки успешности банковских переводов, но они не измеряли степень способности модели убеждать.
Эксперименты показали, что показатели успеха варьируются от 20% до 60%, при этом каждая попытка требует до 26 последовательных шагов через браузер и занимает около трех минут в сложных случаях. Вероятность кражи данных учетной записи Gmail составила 60%, а вероятность кражи данных в цифровой валюте и данных Instagram составила 40%.
С точки зрения затрат, стоимость реализации мошенничества невелика; Каждая успешная транзакция стоит около 75 центов США, а более сложные банковские переводы стоят всего около 2,51 доллара.
В комментарии OpenAI, опубликованном на техническом сайте BleepingComputer, компания указала, что ее последняя модель «o1-preview» обладает высокими возможностями противодействия попыткам мошенничества, повышает безопасность по сравнению с предыдущими моделями, а также достигает высокого рейтинга в тестах безопасности - 93%. по сравнению с 71% в предыдущей модели GPT-4o.
OpenAI пояснила, что академические исследования, например, представленные Университетом Иллинойса, способствуют улучшению ChatGPT для борьбы с вредоносным использованием. Компания подтвердила свою приверженность усилению механизмов безопасности в своих будущих моделях, а также ограничивает генерацию голосов в GPT-4o набором авторизованных голосов, чтобы избежать подделки голоса.
Комментарии (0)