Nvidia live at CES 2026

Панель по ИИ-инфраструктуре: задаём тон

Вивек Арья (Bank of America Securities):
Доброе утро. Добро пожаловать на выставку CES. Добро пожаловать на мероприятие «Nvidia Live». Мы находимся в театре Fountain Blue здесь, в Лас-Вегасе. Примерно через час на сцену выйдет Дженсен Хуан, чтобы поделиться видением Nvidia о том, куда движется ИИ.

Перед этой легендарной, самой ожидаемой keynote-презентацией наша панель стоит перед непростой задачей — разогреть эту чрезвычайно умную аудиторию.

Мы начнём с представления участников, а затем проведём обсуждение с группой экспертов отрасли по широкому кругу тем в экосистеме ИИ.

Начну с себя: меня зовут Вивек Арья, я аналитик по полупроводниковой отрасли в Bank of America Securities.

Сара Гуо (Conviction VC):
Я Сара Гуо, основательница венчурной фирмы Conviction, ориентированной на ИИ.

Марк Липасис (Evercore ISI):
Я Марк Липасис, старший аналитик по полупроводниковой отрасли из Evercore ISI.


Чем этот цикл развития ИИ-инфраструктуры отличается от предыдущих

Вивек Арья:
Прежде чем пригласить первого гостя, позвольте немного окунуться в прошлое.

ИИ — не первый масштабный проект по созданию технологической инфраструктуры. Ранее у нас уже были: создание интернета, глобальное развёртывание волоконно-оптических сетей, рост облачных вычислений и крупные инфраструктурные циклы при внедрении 3G, 4G и 5G.

До того как я пришёл в Merrill Lynch, я работал в отрасли и лично пережил бум и крах некоторых из этих циклов.

Поэтому интересно сравнить то, что происходит сейчас, с прошлым опытом. Конечно, всегда рискованно утверждать: «на этот раз всё по-другому» — но на сей раз действительно всё иначе.

За последние 3 года на ИИ-инфраструктуру уже потрачено почти 800 миллиардов долларов. Согласно нашим прогнозам, в 2026 году на неё будет потрачено около 600 миллиардов долларов. Это очень серьёзные инвестиции.

Поэтому часто возникает вопрос: куда именно направляются эти деньги и какова отдача от инвестиций. Слово «пузырь» звучит постоянно. Bloomberg отмечает, что только в ноябре появилось 12 000 статей, в которых упоминалось слово «пузырь».

На мой взгляд, пузырь существует в заголовках СМИ — но не в реальности.

Вот три фактора, делающие этот цикл развития инфраструктуры принципиально иным:

  1. Мгновенное принятие пользователями
    В день запуска ChatGPT в ноябре 2022 года каждый обладатель ПК или мобильного устройства — почти 5 миллиардов человек — получил к нему немедленный доступ.
    В отличие от предыдущих циклов, например, первоначального развёртывания интернета, когда волокно уже было проложено, но конечные пользователи ещё не были готовы, здесь принятие произошло мгновенно. Тогда огромные мощности развёртывались в магистральных узлах, но их использование отставало годами. В случае с ИИ этого не происходит.
  2. Высокая загрузка ресурсов
    В эпоху волоконно-оптических сетей появился термин «тёмное волокно» (dark fiber) — волокно, которое было проложено, но так и не использовалось. Это была оксюмороничная ситуация: зачем прокладывать кабель, если он не будет задействован?
    Сегодня мы не слышим о «тёмных вычислениях». Вся развёртываемая вычислительная инфраструктура используется очень эффективно — даже графические процессоры возрастом 6–7 лет полностью загружены.
    Если есть один показатель, за которым стоит следить — это уровень загрузки (utilization). Он гораздо информативнее, чем объём расходов.
  3. Хорошо профинансированное капиталовложение
    В отличие от предыдущих циклов — когда многие компании были недостаточно обеспечены финансами — на этот раз инфраструктура строится компаниями, генерирующими исключительный свободный денежный поток.
    Совокупные капитальные вложения на сегодняшний день составляют лишь две трети денежного потока от операционной деятельности этих компаний. Свободный денежный поток остаётся положительным — это сильный опережающий индикатор.

Таким образом, да — это создание совершенно новой инфраструктуры, а не спекулятивная активность.


Snowflake и Nvidia: сотрудничество в сфере корпоративного ИИ

Шридхар Рамасвами (генеральный директор Snowflake):
Благодарю. Я полностью работаю в сфере программного обеспечения, поэтому естественно дополняю здесь специалистов по «железу».

Возвращаясь к теме высокой загрузки: уникальность текущего момента в том, что ИИ создаёт ценность даже на старых чипах.

Мы создали поисковую систему 3–4 года назад целиком на ATN-моделях — моделях, которые тогда ещё не были даже передовыми — и наши клиенты по-прежнему выполняют объёмные задачи по обработке данных на небольших моделях, используя аппаратуру прошлого поколения. Эти ресурсы полностью задействованы.

Между тем передовые фундаментальные модели показывают выдающиеся результаты в таких областях, как агенты для написания кода — они высвобождают колоссальную производительность. Разработчики с зарплатой 200–300 тысяч долларов в год с радостью заплатят за SaaS-сервис, повышающий их эффективность.

Именно поэтому ИИ уникален с точки зрения создаваемой им ценности.

Мы запустили агентов по работе с данными поверх платформы Snowflake. У меня, кстати, один такой работает прямо на телефоне: когда мне нужно узнать информацию о клиенте, я просто спрашиваю: «Как у нас продвигаются дела с этим клиентом? Отношения улучшаются или ухудшаются?» Именно такие оперативные инсайты и хотят все генеральные директора.

Наши отношения с Nvidia длятся уже много лет. Дженсен был почётным гостем на двух из трёх последних саммитов Snowflake.

Мы тесно сотрудничаем. Все наши продукты для ИИ — включая Snowflake Intelligence — работают на чипах Nvidia. Ранее мы обучали крупные фундаментальные модели (тоже на Nvidia). Мы также тесно взаимодействуем по деталям: какие эмбеддинг-модели делают поиск более эффективным?

Главная цель, к которой мы оба стремимся: применение GPU не только для инференса фундаментальных моделей, но и для вычислений над данными — основного бизнеса Snowflake.

Мы лишь в самом начале пути, на котором ускоренные вычисления трансформируют всё, чем мы занимаемся.


Внедрение в корпоративном секторе: препятствия и управление изменениями

Вивек Арья:
Это перекликается с идеей мгновенного принятия — и того, что ИИ сегодня стал критически важной инфраструктурой, а не просто «построй — и придут».

Однако некоторые корпоративные клиенты по-прежнему сопротивляются. Шридхар, что вы слышите от них? Что поможет им преодолеть сопротивление?

Шридхар Рамасвами:
Практические проблемы всегда есть. Когда данные перемещаются на новый класс чипов, клиенты спрашивают:

  • Что происходит с моими данными?
  • Кому они принадлежат?

В Snowflake мы всегда говорим каждому клиенту: ваши данные — это ваши данные. Мы обрабатываем их от вашего имени — и больше ничего.

Ещё один важный вопрос — суверенитет данных. Потребителям неважно, где именно ChatGPT обрабатывает их запрос — в США, Европе или Японии — но для предприятий это принципиально важно. Для них имеет огромное значение, где физически находятся данные.

Мы сталкиваемся с микро-дефицитами: клиенты в Германии могут испытывать нехватку GPU-мощностей на месте и спрашивают: «Можем ли мы направить трафик в Швецию?» Такие решения непросты.

Ещё один аспект — организационные изменения: нужно убедить людей работать по-новому. Мы создали отличного агента для продаж на основе собственных данных — но потребовалось объяснить каждому продавцу: «Демонстрируйте этот агент ежедневно со своего телефона». Это требует формирования новых навыков. Как руководители, мы обязаны разрабатывать методы, побуждающие к позитивному использованию. Такие социальные изменения трудны. На это нужно время.

Сара Гуо:
Переход облегчается наличием встроенных каналов распространения: у всех есть смартфон или ноутбук. Массовое внедрение среди профессиональных пользователей (prosumers) уже произошло.

Компании, умеющие управлять изменениями в крупных организациях, получат огромные преимущества в этом году — особенно по мере того, как потребители и профессиональные пользователи сами будут ощущать силу ИИ.

Компании вроде Snowflake и Nvidia, имеющие глубокие отношения с клиентами, находятся в выигрышном положении.

Шридхар Рамасвами:
Мы рассматриваем агентные технологии как естественное продолжение нашей платформы данных. Почему люди приносят данные в Snowflake? Потому что здесь их проще управлять, легче сделать пригодными для ИИ и проще извлекать из них ценность.

Агентная платформа идеально ложится поверх. Я говорю нашему CIO и CEO: Мы можем поместить эту информацию прямо у вас под рукой. Это лёгкая продажа.


Глобальная инфраструктура и открытые vs. закрытые модели

Вивек Арья:
Ещё один увлекательный тренд: ИИ становится всё более глобальным. Инфраструктура развивается на Ближнем Востоке, в Азии — везде, где есть доступ к энергии. Как это меняет вашу стратегию выхода на рынок?

Шридхар Рамасвами:
Snowflake работает на гипермасштабируемых облачных платформах — и мы извлекли выгоду из практически неограниченных вычислительных мощностей для обычных рабочих нагрузок. Эта модель переносится и на GPU.

Мы не покупаем «железо» и не создаём центры обработки данных — как и наши клиенты. Чтобы использовать Snowflake Intelligence, не нужны предварительные обязательства.

Именно поэтому мы не слишком беспокоимся о «пузырях».

Более распределённая по миру инфраструктура — это плюс: требования к суверенитету данных означают, что немецкие клиенты не хотят, чтобы их данные пересекали континенты. Децентрализованное развёртывание поддерживает это — и спрос будет только расти.

Вивек Арья:
Как вы оцениваете эволюцию открытых и закрытых моделей? Влияет ли это на Snowflake?

Шридхар Рамасвами:
Пока — лишь косвенно. Передовые модели от горстки компаний (OpenAI, Anthropic и др.) намного лучше подходят для ключевых задач, таких как вызов инструментов агентами и агенты для программирования — спрос на них высок.

Но по мере зрелости и масштабирования открытые модели приобретут большее значение.

Важно помнить одну вещь: открытые модели огромно влияют на мышление разработчиков.

Лишь несколько тысяч инженеров в OpenAI имеют доступ к новейшим моделям — это узкая среда. В отличие от этого, открытые платформы привлекают миллионы разработчиков. Это создаёт мощный позитивный цикл — даже в таких неожиданных областях, как проектирование центров обработки данных.

Meta открыла исходные проекты ЦОД, чтобы стимулировать рост экосистемы. Аналогично, даже закрытые компании вроде OpenAI выпускают открытые модели, чтобы оставаться частью экосистемы разработчиков.


Внедрение по отраслевым направлениям

Вивек Арья:
Последний вопрос: какие сегменты рынка лидируют во внедрении ИИ, а какие отстают?

Шридхар Рамасвами:
Это поразительно диверсифицировано.

Финансовый сектор — особенно управляющие активами — рано берёт курс на технологии и регулируется менее жёстко, чем крупные банки. Поэтому финансы в авангарде.

Неожиданный лидер? Здравоохранение. Вы вряд ли представите, что врачи бросятся использовать новые инструменты — но большая часть их работы рутинна: ведение записей после приёма, проверка точности. (У всех есть шутки про почерк врачей!)

Теперь инструменты автоматизируют это — и внедрение ускоряется. Почему? Благодаря ChatGPT: 7 миллиардов человек со смартфонами получили к нему доступ. Это обеспечивает широкое внедрение.

В отличие от Google Search, который убил корпоративный поиск, сегодня одновременно процветают и потребительский, и корпоративный ИИ. Например, агенты для программирования эффективнее в корпоративной среде. ChatGPT не захватывает всё поле в одиночку.

И существует огромный объём «тёмных данных» — 20-летние контракты в SharePoint — которые после структурирования могут дать массу инсайтов. Отсутствующее звено? Превратить их в продукт: сделать пригодными для ИИ, управляемыми и легко доступными.

Вот что делает Snowflake: делает данные готовыми к ИИ и обеспечивает управление — гарантируя, что нужный человек получает доступ к нужным данным в нужное время.

Регуляторы крайне серьёзно относятся к несанкционированному доступу. Наша система помогает, например, банкам соответствовать этим стандартам.

Я встречал клиентов, которые по электронной почте просили кого-то найти контракт восьмилетней давности — и ждали ответа неделю. Вот какая ценность стоит перед компаниями — и почему этот момент настолько захватывающий.


ИИ в здравоохранении и программировании: взгляд основателей

Сара Гуо:
Благодарю, Шридхар. Теперь поговорим о приложениях ИИ выше по стеку — особенно в здравоохранении и программировании.

Оба направления продемонстрировали резкий рост внедрения. Здравоохранение стало сюрпризом; программирование стало прорывом.

Поприветствуем Шьяма Санкара (Abridge) и Харджота Сингха (CodeRabbit).

Шьям Санкар (Abridge):
Мы — компания в сфере ИИ, специализирующаяся на автоматизации рутинной работы в здравоохранении — чтобы медики могли сосредоточиться на пациентах.

Контекст: исследование в Journal of General Internal Medicine показало, что врачам потребовалось бы 30 часов в сутки, чтобы выполнить всю свою работу. Вот насколько велика эта возможность.

Сейчас 80% работы — рутина, 20% — непосредственное клиническое рассуждение. ИИ может перевернуть эту пропорцию.

Мы все сталкивались с замечательными врачами, которые 80% приёма проводят за набором текста — тогда как нам нужно, чтобы они думали о нашей ситуации.

Сара Гуо:
Какие технологические прорывы вас больше всего воодушевляют?

Шьям Санкар:
Наша стратегия: вписываться в рабочие процессы — а не заставлять их подстраиваться под ИИ.

Речь идёт не только о конфиденциальности и безопасности — но и о задержках (latency), артефактах в выводе, интеграции.

Успех требует дистилляции, дообучения, пост-тренировки. Мы уже на масштабе — в этом году затронем 80–100 миллионов жизней — и ежедневно учимся по правкам от врачей, улучшая работу во всех специальностях и условиях.

Теперь мы в новом этапе: обучение на реальной обратной связи, укрепление уверенности в рабочих процессах, способных «довести дело до конца».

Харджот Сингх (CodeRabbit):
CodeRabbit обеспечивает критически важный уровень доверия между агентами для программирования и продакшеном — применяя ограничения к тому, что попадает в эксплуатацию.

Программирование стало массовым вариантом использования GenAI — от простого автодополнения до полностью агентных систем. С Opus 4.5, Gemini 3, GPT-5 агенты теперь способны превращать высокоуровневые запросы в полноценные функции.

Но возникают два узких места:

  1. Ревью — как проверять весь сгенерированный код? Этим и занимается CodeRabbit.
  2. Формулировка намерения — как чётко описать конечную цель?

Сара Гуо:
Как ИИ в программировании влияет на средних и элитных разработчиков?

Харджот Сингх:
Генеративный ИИ снижает барьер входа: естественный язык → код на любом языке. Не нужно заранее знать TypeScript или Rust.

Но он не делает 10x-разработчика 100x-разработчиком. Он помогает средним или новичкам быстрее освоиться, предлагая лучшие практики, заимствованные из открытых примеров.

Таким образом, рабочие места программистов не исчезнут — в сферу войдёт больше людей. Узкое место сместится к ревью, архитектуре и высокоуровневому рассуждению.


Доверие, надёжность и барьеры внедрения

Сара Гуо:
В критически важных областях, таких как здравоохранение, доверие имеет первостепенное значение. Как вы его формируете?

Шьям Санкар:
Доверие = прозрачность + надёжность + авторитетность.

  • Прозрачность: возможность аудита, публикация бенчмарков, оценка LLM-судьями по критериям системы здравоохранения.
  • Авторитетность: публикации, партнёрства с исследователями для рандомизированных контролируемых испытаний (RCT).
  • Соответствие миссии: мы стремимся сэкономить время, усилить присутствие, снизить системные издержки — здравоохранению нужны дефляционная экономика.

«Третий акт» — спасение жизней — помощь медикам работать на вершине своей квалификации. Это включает поддержку клинических решений — больше бюрократии, но это необходимо.

Сара Гуо:
Проблема надёжности агентов решена?

Шьям Санкар:
Зависит от сценария применения.

В здравоохранении:

  • Высокочастотные, низкорисковые процессы (например, суммаризация заметок) могут выполняться агентно — при наличии ограничений, корректного доступа к данным и, при необходимости, контроля со стороны человека.
  • Высокорисковые решения (например, назначение химиотерапии) должны включать человека.

Наши первые продукты ориентированы на взаимодействие «человек в контуре» — «последняя миля» верификации.

Харджот Сингх:
В программировании надёжность всё ещё развивается. Сильное соответствие продукта рынку есть во взаимодействии в реальном времени — например, постоянный чат с Cursor или Cody.

Но фоновые агенты (задачи с длительным горизонтом) по-прежнему имеют низкую надёжность. Из 10 разработчиков, возможно, 2–3 «в полной мере справляются»; остальные испытывают трудности с формулировкой запросов.

В отличие от автопилота — где вы задаёте пункт назначения и приезжаете — в программировании неточное описание цели даёт 30 минут ненужной работы.

Ключевые проблемы:

  • Как часто агенты задают уточняющие вопросы.
  • Форматы вызова инструментов.
  • Песочницы против генерации кода для действий (генерация кода, как правило, точнее).

Барьеры внедрения в здравоохранении

Сара Гуо:
Какой главный барьер для более широкого внедрения ИИ в здравоохранении? Технологии, регулирование или что-то ещё?

Шьям Санкар:
Это управление изменениями — не технологии.

Здравоохранение двигалось медленно по хорошей причине — но ИИ ускоряет внедрение быстрее, чем в любой другой отрасли.

Большинство врачей США уже ежедневно используют ИИ. Задача — масштабировать и внедрять новые сценарии — побуждая пользователей повторно пробовать по мере улучшения контекстной инженерии (например, извлечение данных из EHR, платёжных систем, учебников).

Почва меняется еженедельно. Как заставить пользователей повторно вовлечься после неудачного опыта на прошлой неделе?

Это исторический момент — но всё ещё марафон по изменению поведения.


Открытый исходный код, вычисления и стоимость

Сара Гуо:
Как рост конкурирующих моделей с открытым исходным кодом влияет на ваши дорожные карты и издержки?

Харджот Сингх:
Стоимость — серьёзная проблема — особенно после сбоев в публичных ценообразовательных моделях (например, споры вокруг Cursor: за пользователя vs. за токен).

Сегодня сильные агентные системы используют ансамбли:

  • Премиальные модели (Opus 4.5, GPT-5) — для задач, требующих рассуждений, например, ревью кода.
  • Модели с открытым кодом — для суммаризации, поиска в графе кодовой базы — быстрее, дешевле, допускают дообучение.

Год назад повсеместно звучало: «Работает только лучшая (дорогая) модель». Теперь? Открытые модели навёрстывают — особенно для задач с жёсткими требованиями к задержкам или специализированных подзадач.

Шьям Санкар:
В здравоохранении инференс сложен — время безотказной работы и задержки так же важны, как и точность. В работе с пациентами нет права на повтор.

Поэтому мы используем собственный стек: внутренние, дообученные модели — для контроля, задержек, персонализации — при этом полагаясь на Nvidia за ускорение на нижнем уровне.

Проблема — не только в обучении: именно инференс представляет главную инженерную сложность.

Сара Гуо (быстрый опрос):
Устойчив ли открытый исходный код? Нужны ли бюджеты масштаба OpenAI?

Харджот Сингх:
Ситуация меняется — особенно в программировании, где данные публичны. Раньше проприетарные модели развивались слишком быстро, чтобы дообучение имело смысл.

Теперь открытые модели догнали. Дообучение снова становится актуальным — особенно для долгосрочного управления агентами и задач с критичными задержками.

Шьям Санкар:
Мы обучаемся внутри. Когда появляется новая фундаментальная возможность, мы её оцениваем — но наш продукт настолько сложен, что более 50% того, что мы выпускаем, создаётся внутри.

На уровне приложений — особенно в вертикалях вроде здравоохранения — контроль критичен. Почва быстро меняется; мы должны оставаться гибкими.

Сара Гуо:
Значит, LLM не превратили ИИ в товар?

Шьям Санкар:
Нет — не для вертикальных задач. Чтобы выделиться и победить, нужно проделать очень много работы поверх них.

Сара Гуо:
Какая область применения станет прорывом в 2026 году?

Харджот Сингх:
Программирование — это ворота. Лучшие рассуждения и генерация кода открывают всё — ведь код — это то, как агенты действуют в мире.

Возможности — во втором порядке эффектов:

  • Ревью кода стало узким местом → CodeRabbit.
  • Расцвет микросервисов → стартапы по наблюдаемости.

Следите за узкими местами, создаваемыми первичными инновациями.

Шьям Санкар:
Первый набор компаний «прорвал плотину». Тот же стартап-подход — большая боль + большой рынок — будет работать лучше, чем раньше.

На прошлой неделе мои 9-летние близнецы использовали Cline, чтобы собрать сортировщик покемонов. Мир быстро изменится — и правила инноваций останутся прежними.

Сара Гуо:
Я изменила своё мнение: больше людей станут создавать ПО. Генерация кода мощнее, чем мы думали — это будут не только 25 миллионов инженеров. Это будут ваши дети, эксперты в предметных областях, создатели контента.

Благодарю вас обоих.


Физический ИИ: Mercedes-Benz и Skilled AI

Вивек Арья:
Теперь перейдём к физическому ИИ — с Олой Келленюсом (Mercedes-Benz) и Дипаком Пракашем (Skilled AI).

Ола, Mercedes был одним из первых, получивших сертификат на автономное вождение уровня 3 (Drive Pilot) в США. Какие технологии позволили достичь этой вехи?

Ола Келленюс:
Рад быть здесь — с нетерпением жду выступления Дженсена.

Автоматизированное вождение началось 40 лет назад с проекта Mercedes Prometheus — целью было сделать вождение безопаснее. Тогда не хватало вычислительных мощностей, сенсоров и стека ИИ.

Сейчас: вычисления, сенсоры и ИИ могут справиться почти с любой ситуацией — если обеспечена безопасность и чёткая коммуникация с водителем.

Главный шаг к уровню 3? Юридическая ответственность переходит от водителя к компьютеру. Это отличает его от уровня 2 (ответственный — водитель).

Вивек Арья:
Что нужно для достижения уровней 4/5?

Ола Келленюс:
Вы скоро увидите уровень 2++ — навигацию «от точки А к точке Б». Вчера я ездил на ней в Сан-Франциско: более часа в плотном трафике, въезд/выезд с трассы — безупречно. Создаётся ощущение, будто машина едет по рельсам.

Уровень 3 развёртывается; роботакси уровня 4 уже существуют; частные авто уровня 4 входят в игру — это не научная фантастика.

Самое большое заблуждение? Люди думают, что 99% — это легко. Это не так — длинный хвост сложен. Безопасность — вне компромиссов. Нельзя сказать «молодец, уловил» при скорости 80 км/ч в машине весом 1,8 тонны.

Поэтому мы ставим надёжность выше скорости вывода на рынок. Парковка — безусловный «выигрыш»: 27 сенсоров в новом CLA решают любую непростую задачу парковки одним нажатием кнопки. Как только пользователь попробует — это становится второй натурой.

Вивек Арья:
Дипак, представьте Skilled AI.

Дипак Пракаш (Skilled AI):
Мы создаём универсальный мозг для робототехники: любой робот, любая задача — один мозг.

Одна и та же модель работает на гуманоидах, четвероногих, манипуляторах, AMR.

Почему универсальный? Две причины:

  1. В робототехнике нет идентичности «мозга» — в отличие от LLM. 70 лет у нас были впечатляющие демонстрации — но без обобщения на различную вариативность.
  2. Разнообразие «железа» требует универсальности. Один мозг может использовать данные из любого источника — создавая маховик роста данных.

Вивек Арья:
Каков рецепт обучения роботов? Симуляция в реальность? Видео? Данные с реальных роботов?

Дипак Пракаш:
Волшебной таблетки нет. В отличие от LLM — обучаемых на интернет-текстах — нет данных для робототехники в масштабе интернета.

Поэтому мы стартуем с нуля:

  • Видео людей (эгоструктурированные/YouTube), чтобы понять что делать.
  • Симуляции, чтобы отработать как — совершая миллионы неудач безопасно.
  • Затем дообучаем на реальных телеприводных данных роботов для конкретных задач (например, завод Mercedes).

В конечном итоге развёрнутые роботы сами будут генерировать нужные данные — но мы ещё не там.

Вивек Арья:
Ола, что сложнее: улучшение моделей или стоимость сенсоров/вычислений?

Ола Келленюс:
И то, и другое — но безопасность требует избыточности (как в авиации). Множество типов сенсоров, резервные системы.

Однако главная сложность — данные и обучение, особенно «длинный хвост». Нужны километры, разнообразные модели, и тонкая настройка под конкретные применения (например, 40 моделей авто = 40 размещений сенсоров).

Но если у вас правильная фундаментальная модель, набор сенсоров и вычисления — у вас есть все ингредиенты.

Дипак Пракаш:
Сравните задачи: специфичные (например, авто — люди и так уже ездят из А в Б) и универсальная робототехника (нет естественного источника данных).
Как у LLM: сначала мы создавали специализированные системы (поиск, перевод, кодинг) — все слабые. Затем пришли универсальные модели — и позволили специализированное дообучение.
Тот же путь для роботов: сначала универсальный мозг, затем специализация.


ИИ в производстве и ROI

Вивек Арья:
Ола, как ИИ влияет на ваши заводы? Видите ли вы отдачу от инвестиций?

Ола Келленюс:
Робототехника станет крупнейшим скачком производительности за десятилетия — возможно, за столетие.

Мы тестируем «роботов-помощников»: мыслящие машины, с которыми рабочие могут разговаривать, давать указания, сотрудничать. Через 3–5 лет заводы будут выглядеть совершенно иначе.

Кроме того, с помощью Omniverse мы проектируем и отлаживаем заводы цифровым образом до заливки бетона — это ускоряет и удешевляет строительство.

Прогнозирующее ТО, улучшение качества — ИИ уже приносит пользу здесь много лет.

Дипак Пракаш:
На заводах: сотни задач, каждую выполняют немногие люди — и каждая немного отличается. Поэтому робототехника обязана быть универсальной — вертикальной специализации в одиночку недостаточно для масштабирования.


Keynote Дженсена Хуана: смена платформы ИИ

(Аплодисменты. Дженсен Хуан выходит на сцену.)

Дженсен Хуан:
Привет, Лас-Вегас! С Новым годом. Добро пожаловать на CES.

У нас около 15 килограммов материала для освещения.

Каждые 10–15 лет вычисления обновляются: мейнфреймы → ПК → интернет → облако → мобильные устройства. Каждый раз — смена платформы: новые приложения для нового компьютера.

На этот раз происходит два сдвига одновременно:

  1. ИИ как новая платформа: приложения теперь строятся поверх ИИ — а не просто как ИИ.
  2. Полная перестройка стека:
    • Вы обучаете программу, а не пишете её.
    • Вы запускаете на GPU, а не CPU.
    • Приложения генерируют каждый пиксель/токен с нуля, с учётом контекста — а не предварительно компилируют.

Перестраиваются все пять уровней вычислений. Около 10 трлн долларов устаревшей инфраструктуры модернизируется под ИИ. Сотни миллиардов венчурного финансирования. Триллионы в R&D переориентируются на методы ИИ.

Вот откуда берутся деньги.


2025 год: эпоха масштабирования, агентов и открытых моделей

2025-й был невероятным — всё произошло сразу.

  • Законы масштабирования продолжают действовать: BERT (2015), трансформеры (2017), ChatGPT (2022), затем o1 (2024) — первая модель для рассуждений, вводящая масштабирование во время тестирования (т.е. мышление).
  • Агентные системы взорвались в 2025-м: рассуждения, исследования, использование инструментов, планирование, симуляции. Cursor революционизировал программирование в Nvidia.
  • Появился физический ИИ: ИИ, понимающий физику, + ИИ, взаимодействующий с миром.
  • Открытые модели пошли в рост: DeepSeek-R1 (первая открытая модель для рассуждений) запустила глобальное движение. Скачивания взорвались — стартапы, корпорации, страны хотят войти внутрь.

Мы строим передовые модели полностью открыто — включая обучающие данные — чтобы мир мог доверять, модифицировать и участвовать.

Наши модели:

  • Nemotron (гибридный Transformer-SSM, быстрые рассуждения),
  • Cosmos (фундаментальная модель открытого мира),
  • GR00T (гуманоидная робототехника),
  • Alpaca (беспилотные автомобили).

Все открыты. Все интегрированы в библиотеки NeMo (Physics NeMo, Clara NeMo) — полное управление жизненным циклом: обработка данных → генерация → обучение → контроль → развёртывание.

Наши модели лидируют в рейтингах:

  • Анализ и извлечение из PDF (самый ценный контент — в PDF),
  • Распознавание речи,
  • Семантический поиск (движок базы данных эпохи ИИ).

Будущая архитектура: мультимодельные, агентные приложения

Галлюцинации в ранних LLM возникали из-за отсутствия «привязки к земле». Теперь агенты рассуждают:

  • Нужно ли мне исследовать?
  • Какие инструменты использовать?
  • Как декомпозировать задачу?

Это рассуждение, подобное человеческому — применение известных знаний к новым ситуациям.

Прорыв: мультимодельные агенты — как у Perplexity, который использует несколько моделей в одной цепочке рассуждений.

Будущие ИИ-приложения будут:

  • Мультимодальными (текст, изображение, видео, 3D, белки),
  • Мультимодельными (лучший инструмент для каждой подзадачи),
  • Мультиоблачными и гибридными (облако + периферия — больницы, роботы, заводы).

Пример: я построил персонального ассистента, используя:

  • Brev → превращает DGX Spark в персональное облако,
  • API передовой модели для общих задач,
  • Локальную открытую модель для обработки приватной почты,
  • Маршрутизатор по намерению для выбора модели,
  • Робота Reachy от Hugging Face (вызовы инструментов для головы/камеры),
  • API ElevenLabs для голоса.

Результат: ассистент, который проверяет мой список дел, пишет Дженсену, делает эскизы архитектуры, создаёт видео — и говорит моей собаке Potato слезть с дивана.

Два года назад? Невозможно. Сегодня? Тривиально.

Эта архитектура уже интегрирована в:

  • Palantir,
  • ServiceNow,
  • Snowflake,
  • CodeRabbit,
  • CrowdStrike,
  • NetApp.

Агентный интерфейс заменяет табличные сетки Excel и командную строку — естественное, мультимодальное взаимодействие.


Физический ИИ: система из трёх компьютеров

Чтобы вывести ИИ со экранов в физический мир, нужны:

  1. Компьютер для обучения (DGX),
  2. Компьютер для инференса (робот/автомобиль/периферия),
  3. Компьютер для симуляции (Omniverse) — критически важен для оценки: мир должен реагировать на действия ИИ.

Основные компоненты:

  • Omniverse: физически точные цифровые двойники,
  • Cosmos: фундаментальная модель открытого мира — выравнивает язык, изображения, 3D, действия,
  • Робототехнические модели: GR00T (универсальная робототехника), Alpaca (автономные транспортные средства).

Синтетические данные — ответ на дефицит реальных данных.

Cosmos генерирует:

  • Реалистичное видео из 3D-сцен,
  • Физически корректное движение из логов вождения,
  • Окружающее видео из симуляторов,
  • Сценарии крайних случаев по запросу.

Он превращает вычисления в данные — обучая автопилоты и роботов на «длинном хвосте».

(Идёт демонстрация: Cosmos генерирует динамичные интерактивные миры.)


Alpaca: первый в мире «думающий» ИИ автономных автомобилей

Сегодня мы анонсируем Alpaca — первый в мире ИИ автономных автомобилей, способный думать и рассуждать.

  • Обучен сквозным образом: камера → управление,
  • Обучён на данных человеческого вождения + синтетических километрах от Cosmos + тщательно размеченных примерах,
  • Не просто ведёт машину — объясняет:
    • Какое действие он совершит,
    • Почему,
    • Какова прогнозируемая траектория.

Это решает «длинный хвост»: разложение редких сценариев на знакомые физические взаимодействия.

(Демонстрация: Alpaca ведёт автомобиль — без рук — через сложные городские сценарии, рассуждая вслух.)

Мы начали работу над беспилотниками 8 лет назад — чтобы овладеть полным стеком ИИ. Alpaca — наша первая полная вертикальная интеграция:

  • Уровень 1 (автомобиль): Mercedes-Benz CLA — только что признан самым безопасным автомобилем в мире организацией NCAP,
  • Уровень 2 (чипы): два Orin, следующее поколение — два Thor — спроектированы для робототехники + безопасности,
  • Уровень 3 (инфраструктура): Omniverse + Cosmos,
  • Уровень 4 (модели): Alpaca,
  • Уровень 5 (приложение): Mercedes Drive Pilot.

Избыточность безопасности: Alpaca работает параллельно с классическим, прослеживаемым стеком автопилота. Оценщик политики решает: использовать Alpaca (если уверен) или переключиться на классический.

Мы запустим в США (Q1), Европе (Q2), Азии (Q3/Q4) — с непрерывными обновлениями моделей.

Этот стек открыт — используется партнёрами по уровню L4/роботакси по всему миру.


Роботы выходят на сцену

(На сцену заходят роботы на базе Jetson, обученные в Omniverse.)

Эти роботы учились в Isaac Sim и Isaac Lab — полностью в симуляции.

Посмотрите на нашу экосистему:

  • Unitree, Figure, LG, Caterpillar, Serve Robotics, роботы Uber Eats,
  • Boston Dynamics, Agility, хирургические роботы, Franka, Universal Robots.

Следующая революция? ИИ-усиленный промышленный дизайн.

  • Cadence & Synopsys: CUDA-X интегрирован в EDA/CAE — физика ИИ, агентные проектировщики чипов,
  • Siemens: полный жизненный цикл — проектирование → симуляция → производство → эксплуатация.

Сами заводы станут гигантскими роботами — спроектированными, построенными и протестированными в симуляции до соприкосновения с гравитацией.

(Демонстрация: сотрудничество Siemens и Nvidia в промышленном ИИ.)


Vera Rubin: суперкомпьютер нового поколения для ИИ

Почему мы назвали его в честь Веры Рубин — астронома, открывшей тёмную материю, наблюдая, как галактики вращаются слишком быстро?
Потому что ИИ требует невидимой, массивной инфраструктуры — точно так же, как тёмная материя.

Вызов:

  • Модели растут в 10 раз в год,
  • Масштабирование во время тестирования → в 5 раз больше токенов в год,
  • Стоимость за токен падает в 10 раз в год → гонка к передовому рубежу усиливается.

Поэтому мы должны ежегодно продвигать вычисления.

GB200 (1,5 года назад) → GB300 (сейчас) → Vera Rubin (уже в полной эксплуатации сегодня).

(Идёт видео: сборка Vera Rubin — 15 000 инженеро-лет, 220 трлн транзисторов, стойка весом 2 тонны.)

Шесть совместно разработанных чипов:

  1. Vera CPU: 88 ядер, 176 потоков (пространственная многопоточность), производительность на ватт в 2 раза выше,
  2. Rubin GPU: в 5 раз выше производительность FP по сравнению с Blackwell, только в 1,6 раза больше транзисторов — благодаря тензорному ядру MVF FP4 (динамическая адаптация точности),
  3. Сетевая карта ConnectX-9: пропускная способность масштабирования 1,6 Тбит/с,
  4. DPU BlueField-4: разгрузка хранилища/безопасности, расширение кэша KV,
  5. Шасси MGX: 0 кабелей, сборка за 5 минут, 80% жидкостного охлаждения (вода до 45°C → без чиллеров),
  6. Spectrum-X + MVLink-6:
    • Коммутатор MVLink-6: 400 Гбит/с сердесы, поперечная пропускная способность 240 ТБ/с (в 2 раза больше, чем весь глобальный интернет),
    • Photonics Spectrum-X: первый в мире коммутатор Ethernet с совмещённой 200-Гбит/с оптикой.

Одна стойка: 72 GPU Rubin = 144 кристалла.
Один под: 1 152 GPU (16 стоек).

Прорывы:

  • Конфиденциальные вычисления: все данные зашифрованы в передаче, в покое, при вычислениях (PCIe, NVLink, HBM),
  • Сглаживание энергопотребления: устраняет 25% избыточного резервирования пиковых нагрузок,
  • Расширение кэша KV: BlueField-4 + 150 ТБ памяти в стойке → дополнительно 16 ТБ/кристалл для контекста.

Производительность:

  • Обучение: модель 10 трлн параметров за 1/4 времени по сравнению с Blackwell,
  • Производительность фабрики: в 10 раз выше Blackwell → в 10 раз больше дохода/ГВт в ЦОД,
  • Стоимость токена: в 1/10.

Это миссия Nvidia по полному стеку: чипы → инфраструктура → модели → приложения — чтобы вы могли строить будущее.

Спасибо. Желаю вам отличной CES.

(Идут закадровые сцены — юмористические косяки с репетиций.)

Edit

Pub: 06 Jan 2026 10:37 UTC

Views: 32