- 07:45Вопрос о марокканской Сахаре подчеркивает саммит Трампа
- 18:43Илон Маск официально подал документы на регистрацию своей новой политической партии «Америка»
- 16:35Путин: Россия поддерживала, вооружала и финансировала независимость США от Великобритании
- 14:17Трамп заявил, что он «очень недоволен» звонком Путину, намекая на новые санкции
- 12:53Искусственный интеллект и революция автономного вождения: как цифровой интеллект меняет будущее транспорта?
- 12:04Исследование в США выявило перспективное лечение самых агрессивных типов рака груди
- 11:16Отчет: Марокко поднялось на глобальном уровне, заняло 39-е место среди лучших стран мира
- 10:42Марокко и страны Латинской Америки: стратегические сдвиги укрепляют позицию Марокко по вопросу Сахары
- 09:40Пакистан: муссонные дожди унесли жизни не менее 66 человек, 127 получили ранения
Следите за нами в Facebook
NVIDIA: Кто этот секретный архитектор ИИ?
На первый взгляд Nvidia не похожа на империю. Это компания, основанная в 90-х годах, известная в то время своими видеокартами, используемыми в видеоиграх. Чипы, разработанные для отображения большего количества пикселей, делают взрывы более реалистичными и предлагают трехмерные миры любителям видеоигр. Ничто не указывает на то, что три десятилетия спустя она станет технологической основой глобальной революции, такой как искусственный интеллект.
И все же в 2025 году Nvidia присутствует везде. В гигантских центрах обработки данных Microsoft и Google, в лабораториях OpenAI, в Meta, Amazon, Tesla и в самых престижных университетах. Генеративные модели ИИ, которые рисуют, пишут, кодируют или даже думают, работают на его процессорах. Точнее, его «графические процессоры» — чипы, способные обрабатывать миллионы операций параллельно, идеально подходящие для обучения сложных нейронных сетей. За каждым выдающимся прорывом в области искусственного интеллекта почти всегда стоит чип Nvidia.
Год, когда чип проложил путь интеллекту
Переломный момент наступил в 2012 году. В том году исследователь Алекс Крижевский разработал AlexNet — сверточную нейронную сеть. Модель обучена распознавать миллионы изображений с помощью двух видеокарт Nvidia GTX 580, используя код, разработанный на CUDA — платформе параллельных вычислений, запущенной Nvidia в 2007 году.
Этот проект победит в конкурсе «ImageNet» — эталонном соревновании в области компьютерного зрения — с беспрецедентной точностью. Затем исследовательский мир понял, что графические процессоры, ранее использовавшиеся только для видеоигр и графики, способны обеспечить работу архитектур глубокого обучения. Компания Nvidia, которая уже предвидела потенциал своих чипов в области научных вычислений, воспользовалась этой возможностью. Компания наращивает инвестиции в разработку программных инструментов, совершенствует CUDA и становится естественным союзником исследователей искусственного интеллекта.
Сегодня Nvidia занимает более 98% рынка графических процессоров для центров обработки данных. Ее флагманский процессор «H100» настолько востребован, что считается стратегическим активом. Действительно, в разгар технологической войны между США и Китаем Вашингтон ограничивает свой экспорт, в то время как Пекин отчаянно пытается создать собственные аналоги. Тем временем Nvidia находится на беспрецедентной волне. В 2023 году его оборот вырос на 126%, достигнув 60,9 млрд долларов. Его рыночная капитализация приближается к 3000 млрд. долларов. Поэтому он возвышается рядом с такими титанами, как Apple и Microsoft.
Нивидия молчит… но неизбежна
Самое удивительное в этом стремительном взлете то, что он произошел без особой шумихи. В то время как другие гиганты множат число пресс-конференций и коммуникационных кампаний, Nvidia движется вперед молча, но везде. И все же, мало кто знает, что это за компания на самом деле. Ее скромная штаб-квартира в Санта-Кларе далека от блеска Кремниевой долины. Его команды, сосредоточенные на исследованиях, редко появляются в СМИ. Но каждая строка кода в такой модели, как ChatGPT или Gemini, зависит от них. Каждое изображение, созданное с помощью ИИ, каждое автоматизированное решение, каждый интеллектуальный помощник так или иначе опираются на собственные технологии Nvidia.
Комментарии (0)