X

OpenAI прекращает использовать свои системы для киберпреступлений

OpenAI прекращает использовать свои системы для киберпреступлений
Monday 14 October 2024 - 14:15
Zoom

OpenAI, известная разработкой генеративных решений искусственного интеллекта, таких как ChatGPT, объявила, что недавно остановила несколько вредоносных кампаний, которые использовали ее сервисы для запуска кибератак.

В отчете OpenAI сообщила, что к 2024 году она остановила более 20 мошеннических кампаний по всему миру, причем эти кампании различались по характеру, размеру и целям.

Некоторые мошенники использовали продукты компании для отладки вредоносного ПО, а в других случаях они использовались для создания фейкового контента, например статей, фейковых биографий для учетных записей в социальных сетях и фейковых фотографий профилей.

В своих усилиях по прекращению этих операций OpenAI отметила, что угрозы не привели к существенному прогрессу.

«Злоумышленники все еще изучают возможности наших моделей, но мы не увидели никаких доказательств того, что они добились значительного прогресса в своей способности создавать новое вредоносное ПО», — заявили в компании.

Следует отметить, что 2024 год — год выборов не только в США, но и в других частях мира, и OpenAI наблюдала за эксплуатацией ChatGPT различными партиями, стремящимися повлиять на избирательные кампании.

Среди этих партий есть группа, известная как «Zero Zeno», израильская компания, которая размещала в социальных сетях комментарии о выборах в Индии, кампанию, которую OpenAI закрыла менее чем за 24 часа. Эта группа также активно влияла на вопросы, связанные с выборами в Индии. война в секторе Газа и на Украине.

Компания добавила, что приостановила еще одну кампанию в июне этого года, накануне выборов в Европейский парламент, и что кампания также включала комментарии о выборах во Франции и других политических вопросах в Италии, Польше, Германии и США.

Ни одна из этих кампаний не имела большого успеха, и они были полностью закрыты после того, как OpenAI, как сообщается, запретил их.


Читать далее