- 23:59Иран требует от ООН признать Израиль и «ответственность» США за войну
- 23:29Продовольственная безопасность: Марокко полностью мобилизовано для поддержки развивающихся стран
- 17:13Google запускает новый инструмент для разработчиков программного обеспечения
- 16:21Трамп: Пентагон и ФБР расследуют утечку сообщений об иранских ударах
- 15:25Саудовская делегация начинает стратегический инвестиционный тур в Северную Африку
- 12:50Трамп критикует прокуроров Израиля на фоне суда по делу о коррупции Нетаньяху
- 12:29Сирия опровергла сообщения о предотвращении покушения на аль-Шараа
- 11:53Бизнес-саммит США-Африка: Африка — ключевой игрок в новой глобальной экономике
- 11:11Бразилия: Белен примет COP30, несмотря на критику «непомерных» цен на проживание
Следите за нами в Facebook
Илон Маск предупреждает об опасностях ИИ: риск «галлюцинаций» с искусственными данными
Илон Маск выразил серьезную обеспокоенность по поводу потенциальной опасности моделей искусственного интеллекта, таких как GPT-4 и ChatGPT, которые для обучения и генерации ответов используют большие объемы данных из Интернета. По словам Маска, эти модели потребляют огромные объемы данных, и вполне возможно, что мы достигнем точки, когда онлайн-данные закончатся, вынудив разработчиков прибегнуть к «искусственным» данным, созданным самими моделями.
Это явление может привести к тому, что Маск называет «галлюцинаторностью» нейронных сетей. Конкретно это означает, что когда ИИ полагается на собственные генераторы данных для обучения, он рискует выдавать ошибочные или непоследовательные результаты, другими словами, «галлюцинации». Действительно, модель ИИ может дать ответ, который на первый взгляд кажется правильным, но на самом деле является неверным или бессмысленным.
Маск предупреждает о возможных последствиях этой «галлюцинаторности», когда искусственный интеллект может выдавать ложно убедительные ответы, не имеющие под собой никакой основы в реальности. Это поднимает фундаментальный вопрос: как мы узнаем, является ли ответ ИИ обоснованным или это всего лишь бесполезная галлюцинация?
Растущая зависимость ИИ от искусственно созданных данных может со временем привести к снижению качества информации, поскольку эти системы рискуют воспроизводить или усиливать ошибки и предубеждения, присутствующие в исходных данных. Маск подчеркивает необходимость ограничить зависимость от искусственных данных, подчеркивая важность обеспечения разнообразия и качества информации, используемой моделями ИИ.
Чтобы избежать этого явления, можно разработать автоматизированные системы проверки, которые будут оценивать достоверность ответов ИИ. Например, можно было бы использовать надежные источники для проверки фактов или сравнения результатов с другими базами данных. Более того, в чувствительных областях вмешательство человека может сыграть решающую роль в проверке и подтверждении ответов, сгенерированных ИИ, чтобы свести к минимуму ошибки и галлюцинации.
Комментарии (0)