- 18:15Apple открывает новую эру: управление iPhone силой мысли становится реальностью
- 17:30Глобальный острый голод достиг нового максимума, прогноз на 2025 год «мрачный»: отчет, поддержанный ООН
- 17:17ХАМАС призывает США оказать давление на Израиль, чтобы снять блокаду Газы после освобождения заложника
- 17:00Трамп: Я встречусь с Путиным как можно скорее, и через несколько недель мир станет безопаснее.
- 16:25Украина заявляет, что Россия вернула почти 1 тыс. тел павших солдат
- 16:16Путин уволил главнокомандующего Сухопутными войсками
- 16:00Марокканский паспорт занимает 67-е место в мире по безвизовому доступу в 72 страны
- 15:45Ливийская дипломатия призывает иностранные посольства проявить бдительность в связи с ухудшением ситуации с безопасностью в Триполи
- 15:22NVIDIA: Кто этот секретный архитектор ИИ?
Следите за нами в Facebook
NVIDIA: Кто этот секретный архитектор ИИ?
На первый взгляд Nvidia не похожа на империю. Это компания, основанная в 90-х годах, известная в то время своими видеокартами, используемыми в видеоиграх. Чипы, разработанные для отображения большего количества пикселей, делают взрывы более реалистичными и предлагают трехмерные миры любителям видеоигр. Ничто не указывает на то, что три десятилетия спустя она станет технологической основой глобальной революции, такой как искусственный интеллект.
И все же в 2025 году Nvidia присутствует везде. В гигантских центрах обработки данных Microsoft и Google, в лабораториях OpenAI, в Meta, Amazon, Tesla и в самых престижных университетах. Генеративные модели ИИ, которые рисуют, пишут, кодируют или даже думают, работают на его процессорах. Точнее, его «графические процессоры» — чипы, способные обрабатывать миллионы операций параллельно, идеально подходящие для обучения сложных нейронных сетей. За каждым выдающимся прорывом в области искусственного интеллекта почти всегда стоит чип Nvidia.
Год, когда чип проложил путь интеллекту
Переломный момент наступил в 2012 году. В том году исследователь Алекс Крижевский разработал AlexNet — сверточную нейронную сеть. Модель обучена распознавать миллионы изображений с помощью двух видеокарт Nvidia GTX 580, используя код, разработанный на CUDA — платформе параллельных вычислений, запущенной Nvidia в 2007 году.
Этот проект победит в конкурсе «ImageNet» — эталонном соревновании в области компьютерного зрения — с беспрецедентной точностью. Затем исследовательский мир понял, что графические процессоры, ранее использовавшиеся только для видеоигр и графики, способны обеспечить работу архитектур глубокого обучения. Компания Nvidia, которая уже предвидела потенциал своих чипов в области научных вычислений, воспользовалась этой возможностью. Компания наращивает инвестиции в разработку программных инструментов, совершенствует CUDA и становится естественным союзником исследователей искусственного интеллекта.
Сегодня Nvidia занимает более 98% рынка графических процессоров для центров обработки данных. Ее флагманский процессор «H100» настолько востребован, что считается стратегическим активом. Действительно, в разгар технологической войны между США и Китаем Вашингтон ограничивает свой экспорт, в то время как Пекин отчаянно пытается создать собственные аналоги. Тем временем Nvidia находится на беспрецедентной волне. В 2023 году его оборот вырос на 126%, достигнув 60,9 млрд долларов. Его рыночная капитализация приближается к 3000 млрд. долларов. Поэтому он возвышается рядом с такими титанами, как Apple и Microsoft.
Нивидия молчит… но неизбежна
Самое удивительное в этом стремительном взлете то, что он произошел без особой шумихи. В то время как другие гиганты множат число пресс-конференций и коммуникационных кампаний, Nvidia движется вперед молча, но везде. И все же, мало кто знает, что это за компания на самом деле. Ее скромная штаб-квартира в Санта-Кларе далека от блеска Кремниевой долины. Его команды, сосредоточенные на исследованиях, редко появляются в СМИ. Но каждая строка кода в такой модели, как ChatGPT или Gemini, зависит от них. Каждое изображение, созданное с помощью ИИ, каждое автоматизированное решение, каждый интеллектуальный помощник так или иначе опираются на собственные технологии Nvidia.
Комментарии (0)