- 11:55Газета: Вашингтон больше не может вооружать Украину и Израиль вместе
- 10:15Трамп хвалит профессионализм Путина и российское лидерство
- 09:44Марокко проводит тендер между Lockheed Martin и Embraer на модернизацию своего военно-транспортного флота
- 09:30Трамп намекает на возможное перемирие в Газе уже на следующей неделе
- 08:45Ядерный кризис: МАГАТЭ отзывает инспекторов из Ирана на фоне напряженности в сфере безопасности
- 08:31Трамп подписывает огромный законопроект о бюджете в День независимости
- 15:31ХАМАС консультируется с палестинскими фракциями по поводу прекращения огня в секторе Газа
- 14:42Натиск Трампа на денатурализацию вызывает тревогу по поводу прав на гражданство
- 13:30Пять лет консолидации: стратегическое влияние признания США марокканской Сахары
Следите за нами в Facebook
NVIDIA: Кто этот секретный архитектор ИИ?
На первый взгляд Nvidia не похожа на империю. Это компания, основанная в 90-х годах, известная в то время своими видеокартами, используемыми в видеоиграх. Чипы, разработанные для отображения большего количества пикселей, делают взрывы более реалистичными и предлагают трехмерные миры любителям видеоигр. Ничто не указывает на то, что три десятилетия спустя она станет технологической основой глобальной революции, такой как искусственный интеллект.
И все же в 2025 году Nvidia присутствует везде. В гигантских центрах обработки данных Microsoft и Google, в лабораториях OpenAI, в Meta, Amazon, Tesla и в самых престижных университетах. Генеративные модели ИИ, которые рисуют, пишут, кодируют или даже думают, работают на его процессорах. Точнее, его «графические процессоры» — чипы, способные обрабатывать миллионы операций параллельно, идеально подходящие для обучения сложных нейронных сетей. За каждым выдающимся прорывом в области искусственного интеллекта почти всегда стоит чип Nvidia.
Год, когда чип проложил путь интеллекту
Переломный момент наступил в 2012 году. В том году исследователь Алекс Крижевский разработал AlexNet — сверточную нейронную сеть. Модель обучена распознавать миллионы изображений с помощью двух видеокарт Nvidia GTX 580, используя код, разработанный на CUDA — платформе параллельных вычислений, запущенной Nvidia в 2007 году.
Этот проект победит в конкурсе «ImageNet» — эталонном соревновании в области компьютерного зрения — с беспрецедентной точностью. Затем исследовательский мир понял, что графические процессоры, ранее использовавшиеся только для видеоигр и графики, способны обеспечить работу архитектур глубокого обучения. Компания Nvidia, которая уже предвидела потенциал своих чипов в области научных вычислений, воспользовалась этой возможностью. Компания наращивает инвестиции в разработку программных инструментов, совершенствует CUDA и становится естественным союзником исследователей искусственного интеллекта.
Сегодня Nvidia занимает более 98% рынка графических процессоров для центров обработки данных. Ее флагманский процессор «H100» настолько востребован, что считается стратегическим активом. Действительно, в разгар технологической войны между США и Китаем Вашингтон ограничивает свой экспорт, в то время как Пекин отчаянно пытается создать собственные аналоги. Тем временем Nvidia находится на беспрецедентной волне. В 2023 году его оборот вырос на 126%, достигнув 60,9 млрд долларов. Его рыночная капитализация приближается к 3000 млрд. долларов. Поэтому он возвышается рядом с такими титанами, как Apple и Microsoft.
Нивидия молчит… но неизбежна
Самое удивительное в этом стремительном взлете то, что он произошел без особой шумихи. В то время как другие гиганты множат число пресс-конференций и коммуникационных кампаний, Nvidia движется вперед молча, но везде. И все же, мало кто знает, что это за компания на самом деле. Ее скромная штаб-квартира в Санта-Кларе далека от блеска Кремниевой долины. Его команды, сосредоточенные на исследованиях, редко появляются в СМИ. Но каждая строка кода в такой модели, как ChatGPT или Gemini, зависит от них. Каждое изображение, созданное с помощью ИИ, каждое автоматизированное решение, каждый интеллектуальный помощник так или иначе опираются на собственные технологии Nvidia.
Комментарии (0)