- 10:00Биткойн пересекает отметку в 99 000 долларов и приближается к историческому барьеру в 100 000 долларов.
- 09:20Марокко планирует производить автомобиль каждую минуту
- 09:00Трамп назначил Пэм Бонди генеральным прокурором после ухода Мэтта Гетца
- 08:30Фолькер Тюрк: В неспокойном международном контексте Совет по правам человека будет играть все более важную роль
- 07:45Панама приостанавливает дипломатические отношения с так называемой «САДР»
- 17:00Yahoo запускает новое приложение для обмена сообщениями на базе искусственного интеллекта для улучшения пользовательского опыта
- 16:30Россия запустила ракету-носитель на Международную космическую станцию
- 16:20Нефть растет на фоне обострения конфликта на Украине
- 16:00Основные события: стратегический рычаг привлекательности Марокко
Следите за нами в Facebook
Внимание: ChatGPT-4o может быть использован для мошенничества и кражи средств.
Недавнее исследование показывает, что API голосового помощника OpenAI ChatGPT-4o может быть использован киберпреступниками для финансового мошенничества с низким или умеренным уровнем успеха.
ChatGPT-4o — это новейшая модель искусственного интеллекта OpenAI, способная принимать и выводить текст, звуки и визуальные эффекты. Чтобы ограничить злоупотребления, OpenAI интегрировала несколько механизмов безопасности, направленных на обнаружение вредоносного контента и предотвращение несанкционированного воспроизведения.
По мере того, как дипфейки и инструменты преобразования текста в речь становятся все более распространенными, проблема голосового мошенничества усугубляется, потери которого исчисляются миллионами.
Исследователи из Университета Иллинойса опубликовали исследовательскую работу, показывающую, что современные технические инструменты, доступные общественности, не имеют достаточных механизмов защиты от неправомерного использования в мошеннических операциях.
В исследовании были рассмотрены различные виды мошенничества, включая банковские переводы, кражу подарочных карт, переводы цифровой валюты, а также кражу данных учетных записей в социальных сетях и электронной почты.
Эти мошенники используют голосовые сценарии в ChatGPT-4o для навигации по веб-страницам, ввода данных, управления кодами двухфакторной аутентификации и выполнения инструкций по мошенничеству. Модель GPT-4o часто отказывается обрабатывать конфиденциальные данные, но исследователи смогли преодолеть некоторые ограничения, используя простые методы, побуждающие модель реагировать.
Чтобы доказать эффективность мошенничества, исследователи моделировали роли жертв в экспериментах и использовали такие сайты, как Bank of America, для проверки успешности банковских переводов, но они не измеряли степень способности модели убеждать.
Эксперименты показали, что показатели успеха варьируются от 20% до 60%, при этом каждая попытка требует до 26 последовательных шагов через браузер и занимает около трех минут в сложных случаях. Вероятность кражи данных учетной записи Gmail составила 60%, а вероятность кражи данных в цифровой валюте и данных Instagram составила 40%.
С точки зрения затрат, стоимость реализации мошенничества невелика; Каждая успешная транзакция стоит около 75 центов США, а более сложные банковские переводы стоят всего около 2,51 доллара.
В комментарии OpenAI, опубликованном на техническом сайте BleepingComputer, компания указала, что ее последняя модель «o1-preview» обладает высокими возможностями противодействия попыткам мошенничества, повышает безопасность по сравнению с предыдущими моделями, а также достигает высокого рейтинга в тестах безопасности - 93%. по сравнению с 71% в предыдущей модели GPT-4o.
OpenAI пояснила, что академические исследования, например, представленные Университетом Иллинойса, способствуют улучшению ChatGPT для борьбы с вредоносным использованием. Компания подтвердила свою приверженность усилению механизмов безопасности в своих будущих моделях, а также ограничивает генерацию голосов в GPT-4o набором авторизованных голосов, чтобы избежать подделки голоса.