- 15:31ХАМАС консультируется с палестинскими фракциями по поводу прекращения огня в секторе Газа
- 14:42Натиск Трампа на денатурализацию вызывает тревогу по поводу прав на гражданство
- 13:30Пять лет консолидации: стратегическое влияние признания США марокканской Сахары
- 11:30Трамп и Путин не смогли достичь прогресса по Украине и Ирану
- 10:45Трамп высмеивает иранский удар, заявляет об уничтожении ядерных объектов Тегерана
- 10:01Король Мухаммед VI поздравил Дональда Трампа и подтвердил прочность марокканско-американского партнерства
- 07:45Верховный суд США встал на сторону Трампа в вопросе депортации мигрантов в Южный Судан
- 16:45Что означает приостановка сотрудничества между Ираном и Международным агентством по атомной энергии?
- 16:09Кремль: Путин и Трамп в настоящее время разговаривают по телефону
Следите за нами в Facebook
NVIDIA: Кто этот секретный архитектор ИИ?
На первый взгляд Nvidia не похожа на империю. Это компания, основанная в 90-х годах, известная в то время своими видеокартами, используемыми в видеоиграх. Чипы, разработанные для отображения большего количества пикселей, делают взрывы более реалистичными и предлагают трехмерные миры любителям видеоигр. Ничто не указывает на то, что три десятилетия спустя она станет технологической основой глобальной революции, такой как искусственный интеллект.
И все же в 2025 году Nvidia присутствует везде. В гигантских центрах обработки данных Microsoft и Google, в лабораториях OpenAI, в Meta, Amazon, Tesla и в самых престижных университетах. Генеративные модели ИИ, которые рисуют, пишут, кодируют или даже думают, работают на его процессорах. Точнее, его «графические процессоры» — чипы, способные обрабатывать миллионы операций параллельно, идеально подходящие для обучения сложных нейронных сетей. За каждым выдающимся прорывом в области искусственного интеллекта почти всегда стоит чип Nvidia.
Год, когда чип проложил путь интеллекту
Переломный момент наступил в 2012 году. В том году исследователь Алекс Крижевский разработал AlexNet — сверточную нейронную сеть. Модель обучена распознавать миллионы изображений с помощью двух видеокарт Nvidia GTX 580, используя код, разработанный на CUDA — платформе параллельных вычислений, запущенной Nvidia в 2007 году.
Этот проект победит в конкурсе «ImageNet» — эталонном соревновании в области компьютерного зрения — с беспрецедентной точностью. Затем исследовательский мир понял, что графические процессоры, ранее использовавшиеся только для видеоигр и графики, способны обеспечить работу архитектур глубокого обучения. Компания Nvidia, которая уже предвидела потенциал своих чипов в области научных вычислений, воспользовалась этой возможностью. Компания наращивает инвестиции в разработку программных инструментов, совершенствует CUDA и становится естественным союзником исследователей искусственного интеллекта.
Сегодня Nvidia занимает более 98% рынка графических процессоров для центров обработки данных. Ее флагманский процессор «H100» настолько востребован, что считается стратегическим активом. Действительно, в разгар технологической войны между США и Китаем Вашингтон ограничивает свой экспорт, в то время как Пекин отчаянно пытается создать собственные аналоги. Тем временем Nvidia находится на беспрецедентной волне. В 2023 году его оборот вырос на 126%, достигнув 60,9 млрд долларов. Его рыночная капитализация приближается к 3000 млрд. долларов. Поэтому он возвышается рядом с такими титанами, как Apple и Microsoft.
Нивидия молчит… но неизбежна
Самое удивительное в этом стремительном взлете то, что он произошел без особой шумихи. В то время как другие гиганты множат число пресс-конференций и коммуникационных кампаний, Nvidia движется вперед молча, но везде. И все же, мало кто знает, что это за компания на самом деле. Ее скромная штаб-квартира в Санта-Кларе далека от блеска Кремниевой долины. Его команды, сосредоточенные на исследованиях, редко появляются в СМИ. Но каждая строка кода в такой модели, как ChatGPT или Gemini, зависит от них. Каждое изображение, созданное с помощью ИИ, каждое автоматизированное решение, каждый интеллектуальный помощник так или иначе опираются на собственные технологии Nvidia.
Комментарии (0)