Шапка треда: ИИ-железо / Железо для нейросетей (локальный LLM, вайбкодинг, серверы)
О чем тред:
Выбор видях, мини-пк, маков и серверов для локального запуска языковых моделей (LLM), вайбкодинга, личного AI-секретаря и «вайфу-помощника». Обсуждаем сборки, квантованный слоп, OpenClaw, API-шлюзы.

Для кого:
Инженеры, энтузиасты, жадины, мажоры, нищеброды — все, кто хочет свой ИИ без облачных подписок или с умной экономией.

Что в треде:

Видеокарты (NVIDIA/AMD) — какая сколько токенов выдаст.

Готовые ПК-сборки под разные кошельки.

Mac mini + OpenClaw — идеальный домашний сервер.

Мини-ПК для API-шлюза и локального слопа.

Жиза: как не пролететь с VRAM.

Типовые решения (выбирай свой лагерь)
💀 Нищеброд / Студент
Бюджет: до 50–60к руб
Что брать:

б/у RTX 3060 12GB или Tesla P40 24GB (с активным охлаждением).

ОЗУ 32GB, CPU любой 6-ядерный, SSD 512GB.
На что хватит:
Модели 7B–13B (Q4–Q5) — базовая помощь в коде, суммаризация, болталка.
Скорость: ~10–30 ток/с.
Боль: Видюху надо колхозить, но за 24GB VRAM прощаем.

🤓 Жадина умный (оптимал)
Бюджет: 120–150к руб
Что брать:

RTX 5070 Ti 16GB (новая) или RTX 3090 24GB (б/у).

ОЗУ 64GB, SSD 1TB NVMe, блок 750W.
На что хватит:
Модели 13B–32B на полной скорости, 70B — с оффлоадом в RAM (медленно, но работает). Вайбкодинг, агент с инструментами.
Скорость: ~40–80 ток/с на 8B, ~10–20 на 32B.
Совет: RTX 3090 24GB — имба за свои деньги, если найдёте живую.

🦄 Мажор / Не парюсь
Бюджет: от 300к руб
Что брать:

RTX 5090 32GB (лучший потребительский) или две RTX 4090/5090 (через NVLink не нужен, просто параллелим).

ОЗУ 128GB, SSD 2TB+, БП 1200W.
На что хватит:
Любая локальная модель до 70B целиком в VRAM (Llama 3, DeepSeek R1). 100+ ток/с. Можно запускать несколько моделей сразу.
Совет: Если совсем мажор — бери Nvidia DGX Spark (мини-суперкомп за $4k).

🖥️ Домашний сервер / API-шлюз (тихо, дёшево, 24/7)
Бюджет: 60–100к руб (или старый мак)
Что брать:

Mac mini M4 (16–32GB RAM) — идеален для OpenClaw. Тихий, 10–20 ток/с на 8B модели.

Или мини-ПК на Ryzen AI 9 / 8945HS (например, GEEKOM A8) — ставишь Open WebUI + OpenRouter, туннель — и свой API-шлюз готов.
Для чего:

Круглосуточный AI-секретарь / вайфу.

Прокси для платных API (OpenAI, Anthropic) без VPN на каждом устройстве.

Локальный раннер маленьких моделей (7B) для чата.

🧠 Экзотика / Серверный угар
AMD Ryzen AI Max+ 395 (мини-ПК с 128GB LPDDR5x) — тянет 70B модель с 8–12 ток/с.

Nvidia Tesla H100 — только если вы мажор-мажор или компания.

Две Tesla P40 24GB — бюджетный сервер для больших моделей (48GB VRAM за копейки), но нужна материнка с 16x слотами и шумный кулер.

FAQ по железу (коротко)
Что важнее всего для LLM?
VRAM → пропускная способность памяти → ОЗУ → CPU.

Почему NVIDIA, а не AMD?
CUDA и экосистема. У AMD ROCm работает, но геморрой. Для новичка — только NVIDIA.

Что такое квантование (Q4, Q5)?
Сжатие модели, чтобы влезла в видеопамять. Q4 — хороший баланс размера и качества.

Можно ли запустить 70B на 16GB VRAM?
Да, но медленно (оффлоад в ОЗУ). Лучше 24–32GB.

Где брать программы?
Ollama / LM Studio / Text Generation WebUI. Модели — на Hugging Face.

Что за OpenClaw?
Локальный ассистент, который живёт в Telegram/Discord и сам делает команды на компе. Идеально на Mac mini.

Любой желающий может предложить свой вариант сборки и поделиться опытом. Здесь будет полезно и хардкорным энтузиастам, и новичкам, которые хотят собрать свой первый ПК для локального ИИ.

Дисклеймер: Информация актуальна на апрель 2026 года. Рынок железа меняется быстро, пожалуйста, сверяйтесь с актуальными ценами и новостями в треде.

💡 Оглавление
Основные принципы выбора железа для AI

Сборки ПК для локальных LLM (от начальной до энтузиастской)

Видеокарты для AI (NVIDIA, AMD, сравнение поколений)

Mac mini и OpenClaw (идеальный домашний сервер)

Мини-ПК и альтернативные решения (для тех, кому нужна компактность)

Ноутбуки для работы с LLM (мобильность без потери производительности)

Серверное железо и профессиональные GPU (для самых требовательных)

Работа с API: бюджетные варианты и мини-ПК для дома

FAQ и полезные ссылки

  1. Основные принципы выбора железа для AI
    Локальный запуск LLM — это специфическая задача. Ключевое отличие от игрового ПК в приоритетах:

VRAM (видеопамять) — самый важный фактор. Именно от её объёма зависит, какую по размеру модель вы сможете запустить. Модель на 8B параметров в 4-битном квантовании занимает около 6 ГБ, а 70B модель — уже около 40 ГБ.

Пропускная способность памяти (Memory Bandwidth) — определяет скорость генерации токенов. GPU в среднем в 10–20 раз быстрее системной RAM.

Системная RAM (ОЗУ) — если модель не влезает в VRAM, она "вытекает" в оперативную память, что сильно замедляет работу. Рекомендуемый минимум — 32 ГБ.

Накопитель (SSD) — модели весят десятки гигабайт, так что быстрый NVMe SSD обязателен.

CPU — для инференса (вывода) современных моделей это не самый критичный компонент, но мощный процессор нужен для комфортной многозадачности и оффлайн-препроцессинга.

  1. Сборки ПК для локальных LLM
    Традиционно для локального запуска ИИ собирают производительные ПК. Вот три базовых уровня, основанные на реальном опыте и рекомендациях.

🟢 Начальный уровень (Starter Tier)
Цель: Попробовать локальный ИИ, запускать модели до 7B параметров.

GPU: NVIDIA RTX 5060 или аналог с 8 ГБ VRAM

RAM: 16–32 ГБ DDR4/DDR5

SSD: 500 ГБ – 1 ТБ NVMe

CPU: 6 ядер (Intel Core Ultra 5 235, AMD Ryzen 5 9600X)

PSU: 550–650W

Что можно запускать: Квантованные модели 7B (Llama 3 8B Q4) на полной скорости. Чат, суммаризация документов, базовая помощь в коде.

🔵 Средний уровень (Mid Tier)
Цель: Комфортная работа с моделями 13B, возможность запуска 70B с оффлоадом.

GPU: NVIDIA RTX 5070 Ti или аналог с 12–16 ГБ VRAM

RAM: 32–64 ГБ DDR5

SSD: 1–2 ТБ NVMe

CPU: 8 ядер (Intel Core Ultra 7 265K, AMD Ryzen 7 9700X)

PSU: 750W 80+ Gold

Что можно запускать: Квантованные модели 13B полностью на GPU. Модели 70B становятся возможны с частичным оффлоадом на RAM (медленнее).

🔴 Уровень энтузиаста (Enthusiast Tier)
Цель: Запуск самых больших локальных моделей (30B+) без компромиссов.

GPU: NVIDIA RTX 5090 (32 ГБ VRAM) или несколько карт.

RAM: 64 ГБ+ DDR5

SSD: 2 ТБ+ NVMe

CPU: Мощный многоядерный (Threadripper, Ryzen 9 или Intel Core Ultra 9)

PSU: 1000W+

Что можно запускать: Qwen 2.5 32B, DeepSeek R1 32B и квантованные 70B модели целиком в VRAM.

  1. Видеокарты для AI (Подробный разбор)
    На рынке видеокарт для ИИ по-прежнему доминирует NVIDIA благодаря своей экосистеме CUDA и оптимизации фреймворков. Однако AMD активно догоняет с платформой ROCm.

NVIDIA GeForce RTX 50-й серии (Blackwell)
Это актуальный выбор для большинства энтузиастов. Сравнение двух лучших карт для локального ИИ:

Характеристика NVIDIA RTX 5090 NVIDIA RTX 5080
VRAM 32 ГБ GDDR7 16 ГБ GDDR7
Шина памяти 512-bit 256-bit
Пропускная способность 1792 ГБ/с 896–960 ГБ/с
Рекомендованная цена (MSRP) $1999 $999
Вердикт "Король" для моделей 30B+ Лучшее соотношение цены и качества для 7B-13B
Ключевые выводы по 50-й серии:

RTX 5090: Единственный потребительский GPU, способный запускать большие (30B+) модели без оффлоада. Обеспечивает 213 токенов/с на 8B моделях, что на 67% быстрее RTX 4090. Это выбор для тех, кто регулярно работает с большими моделями.

RTX 5080: Обеспечивает около 76% производительности RTX 5090 при значительно более низкой цене. Идеальный выбор для запуска моделей 7B-14B на полной скорости.

AMD Radeon RX 9070 XT
VRAM: 16 ГБ GDDR6

Пропускная способность: 640 ГБ/с

Цена: ~$599

Вердикт: Достойная альтернатива RTX 5080 по более низкой цене, но экосистема ROCm всё ещё уступает CUDA. При выборе такой карты будьте готовы к возможным проблемам с софтом и библиотеками.

Что покупать прямо сейчас (Апрель 2026)?
Для локального ИИ (LLM): RTX 5090 — если бюджет позволяет и нужны большие модели. RTX 5080 — лучший выбор для большинства задач.

Для старта: RTX 5060 с 8 ГБ VRAM или б/у RTX 3060/4060 Ti 16GB.

Если нужно больше памяти: Смотрите в сторону профессиональных GPU (A6000, A100) или серверных решений.

  1. Mac mini и OpenClaw — идеальный домашний сервер AI
    Mac mini на Apple Silicon стал настоящим хитом для создания домашнего AI-сервера, особенно в связке с OpenClaw. Почему это так популярно?

Что такое OpenClaw?
OpenClaw (ранее Clawdbot/Moltbot) — это открытый автономный AI-ассистент, который работает локально и живёт внутри ваших мессенджеров (WhatsApp, Telegram, Discord). Он может самостоятельно выполнять задачи через shell-команды, управление браузером и файлами.

Почему Mac mini M4 — "золотой стандарт"?
Низкое энергопотребление и бесшумность: Mac Mini M4 с 16 ГБ RAM за ~$530 идеально подходит для круглосуточной работы.

Эффективность: Унифицированная архитектура памяти Apple Silicon позволяет эффективно запускать локальные LLM без дорогих дискретных GPU.

Простота: Это готовое, компактное и тихое решение для домашнего сервера.

Как использовать?
Scaleway & OpenClaw: Вы можете развернуть OpenClaw на Mac mini M4, используя вычислительную мощность Apple Silicon для выполнения небольших LLM-моделей локально.

Руководства: Существуют подробные гайды по установке OpenClaw на Mac Mini и настройке его как фоновой службы.

Совет: Если у вас завалялся старый Intel Mac Mini — он тоже подойдёт, но M-серия работает заметно лучше.

  1. Мини-ПК и альтернативные решения
    Для тех, кому нужна максимальная компактность при сохранении производительности, на рынке появилось множество интересных вариантов.

Флагманские решения на Ryzen AI Max
Acemagic M1A Pro+: На процессоре AMD Ryzen AI Max+ 395 (16 ядер, 32 потока) с NPU до 126 TOPS. Оснащён 128 ГБ LPDDR5x и графикой Radeon 8060S, уровень которой сопоставим с RTX 4070. Цена — $2499.

Minisforum MS-S1 Max: Тоже на базе Ryzen AI Max+ 395 с 16 ядрами и iGPU Radeon 8060S. Поддерживает до 128 ГБ LPDDR5X-8000, что даёт пропускную способность около 256 ГБ/с. Показывает 8–12 токенов/с на Llama 3.1 70B Q4_K_M — это комфортная работа.

Бюджетные и средние мини-ПК
GEEKOM A8: На AMD Ryzen 9 8945HS (8 ядер, 38 TOPS AI) с Radeon 780M. Конфигурация 32 ГБ + 2 ТБ стоит ~56 990 рублей. Отличный вариант для домашнего мини-сервера с доступом к нейросетям.

Dell Pro 5 Micro, MSI Cubi NUC AI+ 3MG: Упоминаются как системы для локальных AI-сценариев весной 2026 года.

Экзотика
Nvidia DGX Spark: Настольный мини-суперкомпьютер на базе GB10 Grace Blackwell Superchip с 128 ГБ унифицированной памяти для работы с моделями до 200 млрд параметров. Цена — $3999.

Tiiny AI Pocket Lab: Карманный мини-ПК размером 142×80×25 мм и весом 300 грамм, способный локально обрабатывать LLM с >100 млрд параметров.

  1. Ноутбуки для работы с LLM
    Если вам нужна мобильность, современные ноутбуки тоже способны на многое.

HP EliteBook X G1a: Флагманский рабочий ноутбук с 128 ГБ ОЗУ LPDDR5x-8533 на базе AMD Ryzen AI 9 HX 375. Позволяет локально запускать LLM с 70–120 млрд параметров. Цена — $4299.

HP ZBook Ultra G1a 14" Mobile Workstation: Рабочая станция для LLM без компромиссов, позволяющая работать с большими моделями в дороге.

ASUS ROG Zephyrus G16 (2025): Игровой ноутбук с RTX 5070 Ti, который также является полноценной платформой для локальных AI-нагрузок.

  1. Серверное железо и профессиональные GPU
    Для самых требовательных задач, когда потребительских решений недостаточно, есть серверный сегмент.

NVIDIA
H100/H200: Промышленный стандарт для обучения больших языковых моделей. H200 предлагает 141 ГБ HBM3e с пропускной способностью >4,8 ТБ/с.

B200: Флагман на архитектуре Blackwell с впечатляющей эффективностью в FP8/FP4.

RTX Pro 6000 Blackwell: Профессиональная карта для рабочих станций, делающая AI-технологии более доступными для компаний.

AMD
Instinct MI300X: Конкурент H100, поставляется с 192 ГБ HBM3. Показывает хорошую производительность в FP16/BF16, но уступает NVIDIA по соотношению цена/производительность (2,24 против 1,06 доллара за H100).

MI400X (анонс): Обещает до 432 ГБ HBM4, что может изменить расстановку сил.

Бюджетный серверный вариант
Nvidia Tesla P40 24 ГБ: Б/у серверная карта для энтузиастов с ограниченным бюджетом. Требует доработки системы охлаждения, но позволяет запускать модели вроде Vicuna-13B.

Сравнение стоимости инференса (Llama 3.3 70B)
GPU Стоимость за 1М токенов
NVIDIA H100 $1.06
NVIDIA H200 $1.17
NVIDIA B200 (TensorRT) $1.23
AMD MI300X $2.24
Google TPU v6e $5.13
Вывод: NVIDIA имеет минимум двукратное преимущество в производительности к стоимости по сравнению с AMD.

  1. Работа с API: бюджетные варианты и мини-ПК для дома
    Если у вас нет мощного ПК, а пользоваться нейросетями хочется, есть два основных пути:

Путь 1: Использование API
Самый бюджетный способ — купить доступ к API (OpenAI, Anthropic, OpenRouter). Стоимость для активного пользователя может составлять $50–$150 в месяц.

Путь 2: Мини-ПК как домашний сервер для API
Мини-ПК отлично подходит для создания личного шлюза к API. Пример с GEEKOM A8:

Настраиваете на мини-ПК туннелирование трафика.

Подключаете OpenRouter AI.

Ставите Open WebUI.

Раздаёте доступ на любые устройства (смартфоны, ноутбуки).
В итоге у вас есть постоянный доступ к любым нейросетям без необходимости настраивать VPN на каждом устройстве. Такой мини-ПК становится вашим личным безопасным сервером.

  1. FAQ и полезные ссылки
    Q: Что важнее для LLM: CPU или GPU?
    A: Однозначно GPU. VRAM — главный фактор.

Q: Могу ли я запустить GPT-4 уровня модель дома?
A: Да, с ограничениями. Модель 70B (как Llama 3) требует ~40 ГБ VRAM в 4-битном квантовании. Это под силу только RTX 5090 или связке из нескольких карт.

Q: AMD или NVIDIA для ИИ в 2026?
A: Если вы хотите "взял и заработало" без плясок с бубном — берите NVIDIA. CUDA и экосистема по-прежнему вне конкуренции.

Q: Что такое квантование моделей?
A: Это метод сжатия модели, который уменьшает её размер ценой небольшой потери качества. Позволяет запускать большие модели на скромном железе.

Q: Где брать модели и программы для запуска?
A: Модели: Hugging Face. Программы: LM Studio, Ollama, Open WebUI.

Оставляйте свои варианты сборок и железок в комментариях. Для апдейтов используйте старые добрые >>... Не забывайте про архив. Всем удачного вайбкодинга и продуктивного общения с местными LLM!

Edit

Pub: 22 Apr 2026 15:02 UTC

Views: 51