Аналітики розкрили справжні витрати DeepSeek на навчання ШІ
Зазначається, що було витрачено понад $1 млрд замість заявлених $6 млн

Китайський ШІ-стартап DeepSeek витратив близько $1,6 млрд на тренування великої мовної моделі з можливістю мислення R1, раніше повідомлялося всього про $6 млн.
Про це йдеться у звіті від SemiAnalysis.
Повідомляється, що вартість навчання DeepSeek-R1 стала однією з ключових тем обговорення навколо китайського стартапу, оскільки його розробникам вдалося досягти рівня OpenAI при значно менших витратах. Попри різні попередні припущення, аналітики SemiAnalysis зазначають, що DeepSeek використовує приблизно 50 тисяч ШІ-чипів Hopper від NVIDIA та очікує на постачання ще 10 тисяч.
Через експортні обмеження США для Китаю DeepSeek застосовує не лише чипи H100, які до виходу BlackWell вважалися найкращими у галузі, а й менш продуктивні H800, спеціально створені для китайського ринку H20, а також A100.
Найбільшу частку серед наявних чипів у стартапу становлять H20 – приблизно 30 тисяч з урахуванням додаткових замовлень. Крім того, компанія має по 10 тисяч H100, H800 і A100.
Бекграунд. Раніше Mind писав, що італійський Орган із захисту персональних даних (Garante per la protezione dei dati personali) в терміновому порядку обмежив обробку даних італійських користувачів китайськими компаніями, які надають сервіс DeepSeek.
Якщо ви дочитали цей матеріал до кінця, ми сподіваємось, що це значить, що він був корисним для вас.
Ми працюємо над тим, аби наша журналістська та аналітична робота була якісною, і прагнемо виконувати її максимально компетентно. Це вимагає і фінансової незалежності.
Станьте підписником Mind всього за 196 грн на місяць та підтримайте розвиток незалежної ділової журналістики!
Ви можете скасувати підписку у будь-який момент у власному кабінеті LIQPAY, або написавши нам на адресу: [email protected].