- 17:10Биткоин достиг исторического максимума, превысив $118 000
- 16:30Газа: ООН осуждает сотни смертей вблизи пунктов гуманитарной помощи
- 15:45Вашингтон рассматривает тарифные льготы для Юго-Восточной Азии как часть своей торговой войны
- 15:00США вводят 35%-ную пошлину на канадский импорт в связи с обострением торговой напряжённости
- 14:15Новый Марокко - Парламентский саммит ЕС запланирован в Рабате в октябре
- 13:30Лавров указывает на растущие риски, угрожающие перспективам создания палестинского государства
- 12:15ОПЕК+ планирует приостановить увеличение производства после запланированного увеличения в сентябре
- 12:02Песков защищает подавление российских СМИ, называя это частью «информационной войны»
- 11:30Взрывное потребление энергии ИИ угрожает стабильности мировых поставок
Следите за нами в Facebook
Исследователи в области медицины отметили «галлюцинации» ИИ
Технологический гигант OpenAI продвигает свой инструмент транскрипции на основе ИИ Whisper как почти достигший «человеческого уровня надежности и точности».
Однако у Whisper есть существенный недостаток: он часто генерирует ложный текст, иногда целые предложения, о чем сообщалось в интервью с более чем десятком инженеров-программистов, разработчиков и научных исследователей, по данным AP.
Это явление, называемое в отрасли «галлюцинациями», может включать неуместные расовые комментарии, агрессивную лексику и сфабрикованные медицинские методы лечения.
Эксперты предупреждают, что эти неточности вызывают беспокойство, особенно с учетом того, что Whisper применяется в различных отраслях по всему миру для таких задач, как перевод и транскрибация интервью, генерация текста для популярных потребительских технологий и создание субтитров к видео.
Особую обеспокоенность вызывает быстрое внедрение инструментов на основе Whisper медицинскими учреждениями для транскрибации консультаций пациентов, несмотря на рекомендации OpenAI не использовать этот инструмент в «областях высокого риска».