Я давно думал о том, что значит "100 ГВт для ИИ"

Дисклеймер
Всё, что вы прочтёте ниже — это субъективное мнение, основанное на личных наблюдениях и размышлениях. Я не претендую на истину в последней инстанции и с уважением отношусь к другим точкам зрения. Я не инженер в OpenAI и не академик, просто внимательно слежу за развитием ИИ и делюсь тем, что кажется важным озвучить. Этот пост не попытка обесценить чей-то труд — наоборот, я глубоко уважаю всех, кто двигает индустрию вперёд. Цель — не критика ради критики, а желание сформулировать мысли вслух и пригласить к диалогу.

Что значит 100 ГВт

На первый взгляд — просто цифра, на деле — это уровень, когда речь уже не про дата-центр, а про целую энергосистему. 100 ГВт это 100 000 000 000 ватт. Для понимания: обычный атомный реактор дает ~1 ГВт, значит 100 ГВт — это примерно сто таких реакторов. Это не очень много — это как страна по мощности.

Если перевести в привычные штуки

Одна современная топ-коробка для ИИ — допустим, SuperPOD или что-то на пару тысяч GPU — тянет пару мегаватт, суперкомпьютер типа Frontier — ~20 МВт. 100 ГВт = 100 000 МВт. То есть это порядок в тысячи и тысячи раз больше, чем то, что сейчас гоняют для тренировки больших моделей.

Если GPU жрёт примерно 400 Вт, то на 100 ГВт можно было бы запитать порядка 250 миллионов таких GPU. Да, двести пятьдесят миллионов. Это не дата-центр, это индустриальный парк серверов на уровне государств.

Что можно сделать при такой мощности?

Практически любое вычислительное чудо, которое только можно себе представить. Тренировать одновременно миллионы моделей уровня GPT-4 и выше, симулировать молекулы в масштабе, который сейчас невозможен, запускать глобальные симуляции климата/экономики/трафика/энергосетей в реальном времени, прототипировать лекарства, материалы, двигатели, строить цифровые двойники планеты и городов — и всё это не по кусочкам, а в масштабе всего сразу.

Но важно понимать: энергия — это ресурс, не интеллект. Чтобы эта энергия работала эффективно, нужны архитектуры, алгоритмы и данные.

Про данные

Даже если скормить модели весь открытый интернет — это далеко не всё. Интернет содержит тексты, фото, видео, но там много шума, повторов, приватных вещей и почти нет сырых сенсорных потоков реального мира: миллиарды датчиков, спутниковые ленты, геномы, закрытые научные базы, архивы экспериментов, промышленные телеметрии.

Для полноценного раскрытия потенциала понадобится не просто терабайты, а петабайты и экзабайты данных: тексты + изображения + видео + аудио + 3D-сканы + научные наборы + потоки IoT. Грубо — датасет в диапазоне от сотен петабайт до нескольких экзабайт.

Чтобы дать числа, которые реально чувствуешь

GPT-3 обучали на ~0.5–1 ТБ текстов, GPT-4 — на пару терабайт чистого текста (это совсем немного по сравнению с видео). Вся текстовая Википедия — ~десятки гигабайт. А весь интернет с видео и фотографиями — оценки разные: от сотен петабайт до экзабайт. Видео — главный куш по объему.

Всё человеческое, всё что есть (архивы, сенсоры, лабораторные данные) — это уже экзабайты, а не терабайты.

И время

Тут люди обычно путаются и думают: ну дадим 100 ГВт — и всё обучится за день. На практике нет. Простой прикид: если допустить, что модель уровня GPT-4 была подготовлена на ~2 ТБ данных за ~90 дней (это грубый пример), то скорость обработки в том эксперименте — ~0.0222 ТБ/день.

Один экзабайт = 1 000 000 ТБ. Чтобы пройти 1 экзабайт при той же скорости, потребуется 45 000 000 дней или ~123 000 лет. Но если у тебя в распоряжении на 1000 раз больше вычислительной мощности (100 ГВт против ~100 МВт), то время делится на 1000 и получается ~45 000 дней, то есть ≈123 года.

При факторе в 10 000× — ~12 лет. При ещё более агрессивных алгоритмах, распределении, использовании синтетических данных и умных трюков — можно сжать до нескольких лет или даже 1–2 года, но это уже требует не только лошадей (энергии), а новых седел (алгоритмов и системы сбора/очистки данных).

Реальность обработки данных

Так что даже если представить, что все люди скинутся датасетом и откроют всё подряд (копирайт снят, персональные данные доступны и т.д.), это огромный аванс, но обучение и интеграция всего этого всё равно займёт годы.

И важнее не только сколько времени, а как эффективно это распределить: просто прокрутить экзабайты через сеть — не значит, что модель их поняла. Нужно чистить, структурировать, индексировать, оптимизировать — это колоссальная работа над данными, не только над железом.

Откуда брать эти данные в реальности?

Открытые ресурсы — интернет, arXiv, OpenStreetMap, открытые спутниковые снимки. Коммерческие и приватные базы — медицина, индустриальные сенсоры, архивы лабораторий — требуют договоров, права и этику. Наконец, есть синтетика: симуляции, генерация данных для редких случаев, роботы/дроны, которые сами собирают данные. В идеальном мире для планетарного ИИ нужны все источники вместе.

Плюс критические ограничения

Охлаждение и инфраструктура. 100 ГВт тепла надо куда-то девать. Это тонна условностей: нужен город дата-центров, гигантские системы охлаждения, инфраструктура генерации энергии, резервирование. Это не про поставить ещё пару стоек — это про стройку и энергетическую политику. Плюс безопасность, контроль, этика: такой ИИ получает власть влиять на экономику, медицину, коммуникации — ошибки будут стоить крайне дорого.

И ещё момент: данные ≠ правда

Если модель качнет все чаты, все соцсети, то вместе с полезным придёт масса дезинформации, предвзятости и приватных шлаков. Без тщательной фильтрации и управления этой штуки получится не мудрый помощник, а просто гигантский отражатель человеческого хаоса с усиленной багажкой ошибок.

Что это значит для обычного человека?

Если вдруг кто-то объявит: у нас есть 100 ГВт для ИИ — это не значит, что завтра появится всеведущий бог-бот. Это значит, что у них есть ресурсы потенциально для масштабных научных вычислений, множества параллельных экспериментов и реального ускорения R&D. Практический эффект появится только если будет грамотный план: какие данные брать, как их готовить, какие модели строить, как применять результаты и как контролировать последствия.

Лично мне это кажется одновременно пугающе круто и опасно. С одной стороны — медицина, новые материалы, климатические модели, оптимизация логистики и спасение жизней. С другой — централизованная мощь без прозрачности и контроля легко превратится в источник ошибок и манипуляций.

Поэтому мне кажется, что сама по себе «мощность» не ответ, а только инструмент. Хороший инструмент может сделать мир лучше, но нужен ещё и набор правил, прозрачность и общественный контроль.

Короче

100 ГВт — это не ещё одна версия сервера, это уровень инфраструктуры государства. Если все дадут свои данные и снимут запреты — это откроет пусть фантастические, но всё ещё не мгновенные возможности. На практике даже с такими ресурсами на то, чтобы переварить всё человечество, уйдут годы, причём большую роль будут играть не только ватт-часы, но и алгоритмы, организация данных и человеческий контроль.

Ну и вишенка: для тех, кто любит живые примеры — представь, что GPT-4 сейчас похож на большую библиотеку университета. 100 ГВт и весь датасет человечества — это не библиотека, а весь архив планеты, спутниковые ленты, лабораторные журналы и все записи IoT вместе. Мощно, но чтобы превратить это в полезный интеллект, нужен не только двигатель, но и мозг, который умеет думать, фильтровать и объяснять.