- 12:20Марко Рубио посещает Центральную Америку для продвижения политики «Америка прежде всего»
- 11:58Трамп назначил исполняющего обязанности директора после трагической авиакатастрофы недалеко от Вашингтона
- 11:32Ciments du Maroc и TIBO Africa запускают образовательную программу через спорт
- 11:05Марокко и Африканский союз: достижения и эффективные инициативы с 2017 года
- 10:41Accor запускает новую организационную структуру в Марокко для стимулирования роста туризма
- 10:41Мир ждет крайнего срока введения пошлин Трампом в отношении Канады, Мексики и Китая
- 10:16Опрос показал, что 85% марокканцев верят, что искусственный интеллект может произвести революцию в их повседневной жизни
- 10:00Марокканская сельскохозяйственная продукция приобретает все больший успех на британском рынке
- 09:51Марокко инвестирует 38 миллиардов евро в развитие высокоскоростной железнодорожной сети, связывающей 43 города
Следите за нами в Facebook
Илон Маск предупреждает об опасностях ИИ: риск «галлюцинаций» с искусственными данными
Илон Маск выразил серьезную обеспокоенность по поводу потенциальной опасности моделей искусственного интеллекта, таких как GPT-4 и ChatGPT, которые для обучения и генерации ответов используют большие объемы данных из Интернета. По словам Маска, эти модели потребляют огромные объемы данных, и вполне возможно, что мы достигнем точки, когда онлайн-данные закончатся, вынудив разработчиков прибегнуть к «искусственным» данным, созданным самими моделями.
Это явление может привести к тому, что Маск называет «галлюцинаторностью» нейронных сетей. Конкретно это означает, что когда ИИ полагается на собственные генераторы данных для обучения, он рискует выдавать ошибочные или непоследовательные результаты, другими словами, «галлюцинации». Действительно, модель ИИ может дать ответ, который на первый взгляд кажется правильным, но на самом деле является неверным или бессмысленным.
Маск предупреждает о возможных последствиях этой «галлюцинаторности», когда искусственный интеллект может выдавать ложно убедительные ответы, не имеющие под собой никакой основы в реальности. Это поднимает фундаментальный вопрос: как мы узнаем, является ли ответ ИИ обоснованным или это всего лишь бесполезная галлюцинация?
Растущая зависимость ИИ от искусственно созданных данных может со временем привести к снижению качества информации, поскольку эти системы рискуют воспроизводить или усиливать ошибки и предубеждения, присутствующие в исходных данных. Маск подчеркивает необходимость ограничить зависимость от искусственных данных, подчеркивая важность обеспечения разнообразия и качества информации, используемой моделями ИИ.
Чтобы избежать этого явления, можно разработать автоматизированные системы проверки, которые будут оценивать достоверность ответов ИИ. Например, можно было бы использовать надежные источники для проверки фактов или сравнения результатов с другими базами данных. Более того, в чувствительных областях вмешательство человека может сыграть решающую роль в проверке и подтверждении ответов, сгенерированных ИИ, чтобы свести к минимуму ошибки и галлюцинации.
Комментарии (0)