- 15:00«Nvidia» становится первой компанией в истории, рыночная стоимость которой превышает $3,6 трлн
- 14:32LG запускает интернет-магазин в Марокко
- 14:00M-AUTOMOTIV укрепляет автомобильный рынок Марокко благодаря стратегическому партнерству с JAC Motors.
- 12:00В Марракеше проходит 22-я сессия Всемирной конференции по медицинским вспомогательным репродуктивным технологиям.
- 11:00Путин рассказал о своих отношениях с Макроном, Шульцем, Байденом и Трампом
- 10:00Объединение клеток мозга с искусственным интеллектом для создания сверхинтеллектуальных биокомпьютеров
- 09:30Архитектор признания марокканской Сахары назначен хранителем портфеля Госдепартамента США
- 09:01Спасательный круг... Победа Трампа может спасти Google от опасности демонтажа
- 08:30Вклад археологического туризма в Марокко в укрепление национальной культурной самобытности
Следите за нами в Facebook
Внимание: ChatGPT-4o может быть использован для мошенничества и кражи средств.
Недавнее исследование показывает, что API голосового помощника OpenAI ChatGPT-4o может быть использован киберпреступниками для финансового мошенничества с низким или умеренным уровнем успеха.
ChatGPT-4o — это новейшая модель искусственного интеллекта OpenAI, способная принимать и выводить текст, звуки и визуальные эффекты. Чтобы ограничить злоупотребления, OpenAI интегрировала несколько механизмов безопасности, направленных на обнаружение вредоносного контента и предотвращение несанкционированного воспроизведения.
По мере того, как дипфейки и инструменты преобразования текста в речь становятся все более распространенными, проблема голосового мошенничества усугубляется, потери которого исчисляются миллионами.
Исследователи из Университета Иллинойса опубликовали исследовательскую работу, показывающую, что современные технические инструменты, доступные общественности, не имеют достаточных механизмов защиты от неправомерного использования в мошеннических операциях.
В исследовании были рассмотрены различные виды мошенничества, включая банковские переводы, кражу подарочных карт, переводы цифровой валюты, а также кражу данных учетных записей в социальных сетях и электронной почты.
Эти мошенники используют голосовые сценарии в ChatGPT-4o для навигации по веб-страницам, ввода данных, управления кодами двухфакторной аутентификации и выполнения инструкций по мошенничеству. Модель GPT-4o часто отказывается обрабатывать конфиденциальные данные, но исследователи смогли преодолеть некоторые ограничения, используя простые методы, побуждающие модель реагировать.
Чтобы доказать эффективность мошенничества, исследователи моделировали роли жертв в экспериментах и использовали такие сайты, как Bank of America, для проверки успешности банковских переводов, но они не измеряли степень способности модели убеждать.
Эксперименты показали, что показатели успеха варьируются от 20% до 60%, при этом каждая попытка требует до 26 последовательных шагов через браузер и занимает около трех минут в сложных случаях. Вероятность кражи данных учетной записи Gmail составила 60%, а вероятность кражи данных в цифровой валюте и данных Instagram составила 40%.
С точки зрения затрат, стоимость реализации мошенничества невелика; Каждая успешная транзакция стоит около 75 центов США, а более сложные банковские переводы стоят всего около 2,51 доллара.
В комментарии OpenAI, опубликованном на техническом сайте BleepingComputer, компания указала, что ее последняя модель «o1-preview» обладает высокими возможностями противодействия попыткам мошенничества, повышает безопасность по сравнению с предыдущими моделями, а также достигает высокого рейтинга в тестах безопасности - 93%. по сравнению с 71% в предыдущей модели GPT-4o.
OpenAI пояснила, что академические исследования, например, представленные Университетом Иллинойса, способствуют улучшению ChatGPT для борьбы с вредоносным использованием. Компания подтвердила свою приверженность усилению механизмов безопасности в своих будущих моделях, а также ограничивает генерацию голосов в GPT-4o набором авторизованных голосов, чтобы избежать подделки голоса.