- 16:20Netflix выбирает Марокко для съемок французской версии «Любовь слепа»
- 15:30Марокко впервые примет Совет директоров IIO
- 14:00WhatsApp запускает функцию транскрипции текста для голосовых сообщений
- 12:35Индустрия видеоигр: к 2027 году ожидается взрывной рост
- 12:10Microsoft анонсирует новое приложение для перевода для бизнеса
- 11:32Alphabet wordt geconfronteerd met regeldruk waardoor het $100 miljard aan marktwaarde verliest
- 11:00Риск «непрекращающихся социальных расколов»: дебаты об эволюции искусственного сознания
- 10:30ВОЗ сохраняет максимальную бдительность в отношении эпидемии Mpox в условиях тревожного распространения
- 10:00Ecuador zet de vertegenwoordiger van Polisario definitief uit
Следите за нами в Facebook
Исследователи в области медицины отметили «галлюцинации» ИИ
Технологический гигант OpenAI продвигает свой инструмент транскрипции на основе ИИ Whisper как почти достигший «человеческого уровня надежности и точности».
Однако у Whisper есть существенный недостаток: он часто генерирует ложный текст, иногда целые предложения, о чем сообщалось в интервью с более чем десятком инженеров-программистов, разработчиков и научных исследователей, по данным AP.
Это явление, называемое в отрасли «галлюцинациями», может включать неуместные расовые комментарии, агрессивную лексику и сфабрикованные медицинские методы лечения.
Эксперты предупреждают, что эти неточности вызывают беспокойство, особенно с учетом того, что Whisper применяется в различных отраслях по всему миру для таких задач, как перевод и транскрибация интервью, генерация текста для популярных потребительских технологий и создание субтитров к видео.
Особую обеспокоенность вызывает быстрое внедрение инструментов на основе Whisper медицинскими учреждениями для транскрибации консультаций пациентов, несмотря на рекомендации OpenAI не использовать этот инструмент в «областях высокого риска».