Випущено панораму та звіт про тенденції AIGC Computing Power! Одна стаття пояснює структуру обчислювальної потужності AIGC, галузевий ланцюжок і п’ять нових суджень про тенденції
Обчислювальна потужність штучного інтелекту ніколи не була такою привертає увагу, як зараз.
З моменту появи тенденції великих моделей кількість і масштаби великих моделей різко зросли всього за кілька місяців.
Десятки мільярдів сотень мільярдів великих моделей зросли до десятків, і офіційно народилася велика модель із трильйонами параметрів.
За таких масштабних змін попит на обчислювальну потужність демонструє різкі зміни.
Компанії модельного рівня майже за будь-яку ціну купують послуги обчислювальної потужності. Ринкова вартість Nvidia колись перевищила трильйон доларів США, а ринок хмарних обчислень перебудовується прискореними темпами...
Немає сумніву, що обчислювальна потужність є такою ж основною енергією, як гідроенергія та нафта для розвитку промисловості AIGC.
Після прелюдії до ери AIGC особливо важливим є те, як зрозуміти галузь обчислювальної потужності.
Яка обчислювальна потужність потрібна підприємству? Які зміни відбудуться в індустрії обчислювальної енергії через зростання AIGC? Який поточний склад ринку обчислювальної потужності?
"AIGC Computing Power Panorama and Trend Report" тут, щоб допомогти вам зрозуміти ці проблеми.
У звіті мозковий центр qubit систематично проаналізував склад обчислювальної потужності AIGC і промисловий ланцюг, а також вказав на п’ять нових тенденцій обчислювальної потужності AIGC** і прогноз розвитку трьох етапів .
Основні ідеї включають:
Керовані AIGC, чіпи змагаються за високу продуктивність і велику обчислювальну потужність, а також представляють нову обчислювальну архітектуру;
ШІ-сервер виник раптово, і бонусна крива спочатку тренується, а потім аргументується;
MaaS змінює парадигму хмарних послуг, замкнутий цикл бізнес-моделі AIGC;
Універсальна машина зі штучним інтелектом готова до виходу, а традиційна індустрія вже «з коробки»;
Інтелектуальний обчислювальний центр супроводжує роботу AIGC, а модель оренди обчислювальної потужності стала новим рішенням;
……
Розглянемо деталі одну за одною.
Зростання бізнесу вітчизняних виробників серверів перевищує 30%
З аналізу поточного статус-кво в галузі головна частина галузі в основному включає:
чіп
AI сервер (кластер)
хмарні обчислення
Рівень мікросхеми: два маршрути AIGC забезпечують обчислювальну потужність
У галузі обчислювальних чіпів наразі існує два основних напрямки для задоволення потреб у обчислювальній потужності галузі AIGC.
Одним з них є маршрут GPU, представлений Nvidia, який називається універсальним чіпом.
Інший – це шлях ASIC, представлений Huawei та Cambrian, який називається маршрутом спеціальних мікросхем.
Зараз ці два маршрути об’єднують різні типи гравців, і обчислювальні завдання, які вони виконують, також відрізняються.
За маршрутом мікросхем загального призначення він може виконувати різноманітні обчислювальні завдання та підходить для великомасштабних паралельних обчислень.
Тобто чип загального призначення (GPU) більше підходить для поточної обчислювальної потужності AIGC.
Перевага виділеного маршруту відображається в кращому коефіцієнті енергоефективності в конкретних сценаріях. Оскільки мікросхеми спеціального призначення призначені для виконання спеціалізованих або налаштованих завдань, вони можуть досягти кращого коефіцієнта енергоефективності та ефективності обчислень, ніж мікросхеми загального призначення в конкретних сценаріях**.
Саме тому, що спеціалізовані мікросхеми можуть підвищити ефективність обчислень у певних сценаріях, це також стало технічним шляхом, який обирають Інтернет- та інші хмарні постачальники при розробці власних мікросхем.
Зазвичай мікросхеми власної розробки виробників Інтернет-хмари в основному обслуговують власні продукти, наголошуючи на максимальному випуску продуктивності мікросхем у своїй власній екології.
### Серверний рівень: зростання бізнесу очевидне, головним чином на основі Інтернет-клієнтів
Попит AIGC на високопродуктивні обчислення зробив сервери ШІ найшвидше зростаючим сегментом серверної сфери.
Навчання великих моделей, таких як GPT-3, вимагає багато обчислювальних ресурсів і пам’яті, і зазвичай передбачає використання тисяч або навіть десятків тисяч графічних процесорів для прискорення навчання.
Оскільки ці обчислення мають дуже високі вимоги до продуктивності мікросхеми, для підтримки масових паралельних обчислень і високошвидкісної передачі даних потрібні спеціалізовані апаратні та програмні засоби.
Сервери штучного інтелекту — це сервери, спеціально розроблені для обробки робочих навантажень штучного інтелекту з використанням спеціалізованих апаратних прискорювачів (таких як GPU, TPU тощо), а також високошвидкісних мережевих з’єднань і сховищ для забезпечення високопродуктивних обчислювальних можливостей.
Навпаки, центральні процесори (сервери загального призначення) зазвичай не можуть задовольнити вимоги AIGC щодо надзвичайної обчислювальної потужності, а їхня обчислювальна потужність, пам’ять і ємність зберігання зазвичай низькі. Крім того, процесори зазвичай не мають спеціальних апаратних прискорювачів для забезпечення високошвидкісних обчислень.
Таким чином, для надання обчислювальних послуг навчання великомасштабної моделі має покладатися на кластери серверів ШІ.
Згідно з дослідженням Qubit Think Tank, після спалаху AIGC цього року вітчизняні виробники серверів загалом збільшили свій бізнес більш ніж на 30%**.
Нещодавно TrendForce також збільшив сукупний річний темп зростання поставок серверів ШІ з 2022 по 2026 рік до 22%. За зростанням бізнесу серверів штучного інтелекту найбільшими покупцями все ще залишаються інтернет-компанії.
У 2022 році основними покупцями в частці закупівель AI-серверів стануть такі великі виробники, як ByteDance, Tencent, Alibaba, Baidu тощо. Цього року ентузіазм щодо широкомасштабних досліджень і розробок моделей підштовхнув попит на купівлю низьких інтернет-компаній, що робить їх найбільшим покупцем серверів ШІ.
### Хмарні обчислення: MaaS змінює модель обслуговування, старі та нові гравці реструктуризують конкурентоспроможність
Модель MaaS була вперше запропонована Ali, а потім великі інтернет-компанії та компанії штучного інтелекту (такі як SenseTime) представили модель MaaS.
Крім того, такі компанії, як інтернет-гіганти та Huawei, вже використовували мікросхеми власної розробки при створенні баз MaaS.
У 2023 році провідні вітчизняні хмарні виробники послідовно запустять власні платформи MaaS, засновані на великих базах моделей, щоб надавати комплексні послуги MaaS для підприємств з обмеженими обчислювальними ресурсами та браком професійного досвіду.
Для хмарних постачальників основна мета послуг MaaS — допомогти клієнтам швидко створювати великі моделі для певної галузі. Виходячи з цього, вимір конкуренції між постачальниками хмарних технологій змінився на інфраструктуру обчислювальної потужності, загальні можливості великомасштабної моделі та можливості платформи/інструменту AI.
### Статус інтелектуального обчислювального центру: обчислювальна потужність штучного інтелекту на рівні інфраструктури, що створює новий двигун для регіонального економічного зростання
З точки зору розповсюдження обчислювального обладнання, на ринку серверів і серверів ШІ Пекін, Гуандун, Чжецзян, Шанхай і Цзянсу входять до п’ятірки лідерів із загальною часткою ринку (серверів і серверів ШІ) 75% і 90% (дані за 2021 рік) .
З точки зору постачання, більшість інтелектуальних обчислювальних центрів розташовано у Східній і Центральній провінціях, а бізнес AIGC потребує обробки великої кількості даних, що призводить до високої вартості ресурсів обчислювальної потужності в Схід**.
Перенесення завдань із високими вимогами до обчислень, таких як навчання великомасштабної моделі, у західний регіон формує «East Data Training», що може ефективно зменшити витрати та досягти оптимальної комплексної вартості ресурсів обчислювальної мережі.
Зокрема, щоб вирішити такі проблеми, як незбалансована пропозиція та попит на обчислювальну потужність, необхідно перенести обчислювальну потужність і завдання обробки даних на сході до західного регіону з меншими витратами через планування обчислювальної потужності. Серед них оптимізація мережі взаємозв’язку між сходом і заходом і мережі прямого з’єднання між вузлами-концентраторами є ключем до підвищення рівня планування обчислювальної потужності.
З точки зору попиту, попит на обчислювальну потужність AIGC в основному надходить від виробників, які розробляють великі моделі AIGC, в основному поширені в регіоні Пекін-Тяньцзінь-Хебей, дельті річки Янцзи та районі Великої затоки.
Наступає революція чіп-серверів
Тенденція великих моделей висуває нові вимоги до обчислювальної потужності та призводить до нових змін у базовому обладнанні. Давайте розглянемо два рівні чіпів і серверів:
рівень фішки
На даний момент серед високопродуктивних чіпів Nvidia A100 має абсолютну перевагу, а A100 є лише в Китаї, але не збільшується.Внутрішній ринок надасть вітчизняним виробникам GPU більше можливостей**.
Крім того, на рівні ливарного виробництва мікросхем наразі немає вітчизняного ливарного заводу, який би міг виконувати процеси 7 нм і вище, і більшість виробників графічних процесорів обирають зрілий процес + передові рішення для упаковки для досягнення вищих показників продуктивності.
На рівні кластера серверів високопродуктивні обчислення реалізуються за допомогою багатокарткових багатомашинних паралельних обчислень і високопродуктивної мережі.
Оскільки апаратне забезпечення + екологія CUDA, створене Nvidia, важко прорватися за 10 років, у майбутньому, коли високопродуктивний GPU буде обмежено, аналітики прогнозують, що буде два основних рішення для апаратного рівня, останнє – розробити технологію GPU + inter-chip Interconnect для досягнення масивних паралельних обчислень**.
Інший полягає в тому, щоб вийти з архітектури фон Неймана та розробити інтегровану архітектуру зберігання та обчислення для інтеграції обчислювальних блоків і блоків зберігання для досягнення порядку величини підвищення енергоефективності обчислень.
На рівні програмного забезпечення розріджені обчислення і побудова високопродуктивної мережі є двома рішеннями.
Інновації розріджених обчислень відображаються на рівні алгоритму. Видаляючи недійсні або зайві дані (такі дані зазвичай величезні), обсяг обчислень даних значно зменшується, тим самим прискорюючи обчислення.
Метою побудови високопродуктивної мережі є скорочення часу навчання великих моделей. Завдяки створенню високопродуктивної мережі кожен обчислювальний вузол має надвисоку пропускну здатність зв’язку, що в кілька разів покращує продуктивність трафіку, тим самим скорочуючи час навчання великих моделей.
### Рівень сервера
Попит на обчислювальну потужність великих моделей штучного інтелекту зростає в геометричній прогресії, що робить сервери ШІ з більш високою конфігурацією основним носієм обчислювальної потужності AIGC.
Порівняно з традиційними серверами, обчислювальні можливості, можливості зберігання та мережевої передачі серверів AI можуть досягати вищого рівня.
Наприклад, конфігурація сервера NVIDIA DGX A100 з 8 графічним процесором і 2 процесорами набагато вища, ніж у традиційних серверів з 1~2 процесорами.
У моїй країні Інтелектуальний обчислювальний центр — це публічна інфраструктурна платформа, яка надає ресурси обчислювальної потужності для штучного інтелекту (великі моделі), а його обчислювальними потужностями є в основному навчальні сервери ШІ та сервери міркувань ШІ.
З розвитком великих моделей основний попит на майбутні сервери штучного інтелекту переміститься від навчання до висновків. Згідно з прогнозом IDC, до 2026 року 62,2% обчислювальної потужності AIGC буде використовуватися для модельних міркувань.
Зміни в галузі породжують нові можливості для бізнесу
Крім того, тенденція широкомасштабних моделей штучного інтелекту відкриває нові можливості для індустрії обчислювальної потужності, а також з’являються нові парадигми, нові продукти та нові інфраструктури.
Нові правила гри: MaaS змінює парадигму хмарних сервісів, замкнутий цикл бізнес-моделі AIGC
MaaS (модель як послуга) вбудовує великі моделі в обчислювальну потужність, алгоритми та рівні додатків, інтегрує програми з інтелектуальними базами та уніфікує зовнішній вихід.
Суть MaaS полягає в удосконаленні та інтеграції загальних базових технологій у галузі в сервіси для задоволення потреб різних сценаріїв застосування.
У процесі комерціалізації можливості великомасштабної моделі та допоміжні інструменти проміжного програмного забезпечення стануть новими вимірами, які підприємства повинні розглядати для постачальників хмарних обчислень.
Дискримінант можливостей хмарних обчислювальних послуг змістився з рівня обчислювальної потужності до можливостей «інтеграції хмари та інтелекту». Окрім інфраструктури обчислювальної потужності, основна конкурентоспроможність змінилася на здатність створювати обчислювальну потужність, моделі та прикладні програми. в стандартизовані продукти.
### Нові види: модель штучного інтелекту «все в одному» готова до виходу, традиційні галузі «з коробки»
Універсальна машина моделі штучного інтелекту глибоко інтегрує програмне та апаратне забезпечення. Відповідно до різних потреб підприємств відповідні продукти або рішення розгортаються на сервері штучного інтелекту заздалегідь і упаковуються для формування повного набору рішень.
Цінова перевага універсальної машини моделі AI в основному відображається в наступних трьох пунктах:
Загальна ціна закупівлі нижча, ніж ціна окремого придбання програмного забезпечення + апаратного забезпечення;
Підприємству потрібно багато часу, щоб придбати сервер окремо та передати його підприємству зі штучним інтелектом для розгортання програмного забезпечення.Модель штучного інтелекту «все в одному» машина може використовуватися з коробки, зниження вартості доставки;
Кількість необхідних серверів значно зменшено, що економить витрати на простір для клієнтів.
### Нова інфраструктура: інтелектуальний обчислювальний центр супроводжує операції AIGC, режим оренди обчислювальної потужності стає новим рішенням
Модель оренди обчислювальної потужності може ефективно знизити поріг для великомасштабної розробки моделей.Для невеликих модельних компаній у вертикальних галузях, які не мають сил придбати достатню кількість серверів ШІ, публічна базова платформа обчислювальної потужності допоможе малим і середнім підприємствам створювати власні необхідні моделі.
Підприємствам не потрібно купувати сервери, але вони можуть отримати доступ до центру обчислювальної потужності через браузер і скористатися послугами обчислювальної потужності.
Для малих і середніх підприємств немає потреби покладатися на велику модельну базу, створену хмарними постачальниками для вторинної розробки, а розробляти невеликі моделі вертикальних галузей, орендуючи ресурси обчислювальної потужності з публічних обчислювальних потужних платформ.
Прогноз розвитку галузі
Підсумовуючи, аналітичний центр qubit прогнозує майбутній розвиток AIGC, який можна розділити на три етапи:
Період інфраструктури AIGC
Період розвитку AIGC
Діловий період AIGC
Період інфраструктури AIGC
На даний момент більшість компаній на рівні моделі AIGC знаходяться на стадії попереднього навчання, і основним джерелом попиту на чіпи є GPU.
На початковому етапі найбільше виграшу отримають виробники високопродуктивних GPU.
Однак наразі існує великий розрив між вітчизняними виробниками GPU та Nvidia, і перший бенефіціар є домінуючою стороною на фондовому ринку.
Тому вітчизняні виробники серверів ШІ є сильними постачальниками на цьому етапі. На даний момент вітчизняні сервери ШІ відчувають дефіцит.
### Період розробки AIGC
На середньостроковій стадії (протягом 5 років) рівень обчислювальної потужності є процесом переходу від навчання до міркувань.
На цьому етапі чіпи для міркувань стануть основним попитом. Порівняно з високою обчислювальною потужністю та високим енергоспоживанням графічного процесора та відповідною втратою обчислювальної потужності, чіп для висновків приділяє більше уваги коефіцієнту обчислювальної ефективності чіпа та має кращий контроль над споживанням енергії та вартістю. Крім того, на цьому етапі також буде можливість для інноваційних фішок.
Аналітики очікують більше ринкових можливостей для інтегрованих чіпів пам’яті, чіпів, натхненних мозком, і кремнієвих оптичних чіпів.
На етапі висновків периферійні обчислення матимуть більше можливостей, ніж хмарні обчислення на етапі навчання.
Перш за все, додатки, які відповідають етапу логічного висновку, мають тенденцію бути різноманітними, а різноманітні вимоги змушують хмарні обчислення генерувати більше марнування обчислювальної потужності та низьку ефективність обчислень.
По-друге, периферійні обчислення можуть забезпечити достатню обчислювальну потужність для міркування великої моделі.
На цьому етапі дивідендний період виробників серверів зі штучним інтелектом поступово досягне піку, і попит переміститься на недорогі сервери загального призначення; мікросхеми також перемістяться з GPU на NPU/ASIC/FPGA/CPU та інші форми співіснують. Серед вітчизняних інноваційних маршрутів чіпів ** оптимістично дивиться на розвиток інтегрованої архітектури зберігання даних**.
### Діловий період AIGC
Почали з’являтися основні інноваційні переваги чіпів, і виробники чіпів із справді інноваційними технологіями, такими як інтегроване зберігання та обчислення, фотонні чіпи та чіпи, подібні до мозку, посилили свою роль на ринку.
Типи мікросхем, необхідних для обчислювальної потужності AIGC, більш різноманітні.
Підприємства на цьому етапі мають більш повний розгляд обчислювальної потужності, не тільки враховуючи розмір обчислювальної потужності, енергоспоживання та вартість можуть перевищувати розмір обчислювальної потужності та стати показниками, про які дбають компанії на кожному рівні моделі.
Отримати звіт
Натисніть на посилання нижче:
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
Випущено панораму та звіт про тенденції AIGC Computing Power! Одна стаття пояснює структуру обчислювальної потужності AIGC, галузевий ланцюжок і п’ять нових суджень про тенденції
Джерело: Qubit
Обчислювальна потужність штучного інтелекту ніколи не була такою привертає увагу, як зараз.
З моменту появи тенденції великих моделей кількість і масштаби великих моделей різко зросли всього за кілька місяців.
Десятки мільярдів сотень мільярдів великих моделей зросли до десятків, і офіційно народилася велика модель із трильйонами параметрів.
За таких масштабних змін попит на обчислювальну потужність демонструє різкі зміни.
Компанії модельного рівня майже за будь-яку ціну купують послуги обчислювальної потужності. Ринкова вартість Nvidia колись перевищила трильйон доларів США, а ринок хмарних обчислень перебудовується прискореними темпами...
Після прелюдії до ери AIGC особливо важливим є те, як зрозуміти галузь обчислювальної потужності.
Яка обчислювальна потужність потрібна підприємству? Які зміни відбудуться в індустрії обчислювальної енергії через зростання AIGC? Який поточний склад ринку обчислювальної потужності?
"AIGC Computing Power Panorama and Trend Report" тут, щоб допомогти вам зрозуміти ці проблеми.
У звіті мозковий центр qubit систематично проаналізував склад обчислювальної потужності AIGC і промисловий ланцюг, а також вказав на п’ять нових тенденцій обчислювальної потужності AIGC** і прогноз розвитку трьох етапів .
Розглянемо деталі одну за одною.
Зростання бізнесу вітчизняних виробників серверів перевищує 30%
З аналізу поточного статус-кво в галузі головна частина галузі в основному включає:
Рівень мікросхеми: два маршрути AIGC забезпечують обчислювальну потужність
У галузі обчислювальних чіпів наразі існує два основних напрямки для задоволення потреб у обчислювальній потужності галузі AIGC.
Одним з них є маршрут GPU, представлений Nvidia, який називається універсальним чіпом.
Інший – це шлях ASIC, представлений Huawei та Cambrian, який називається маршрутом спеціальних мікросхем.
Зараз ці два маршрути об’єднують різні типи гравців, і обчислювальні завдання, які вони виконують, також відрізняються.
За маршрутом мікросхем загального призначення він може виконувати різноманітні обчислювальні завдання та підходить для великомасштабних паралельних обчислень.
Тобто чип загального призначення (GPU) більше підходить для поточної обчислювальної потужності AIGC.
Перевага виділеного маршруту відображається в кращому коефіцієнті енергоефективності в конкретних сценаріях. Оскільки мікросхеми спеціального призначення призначені для виконання спеціалізованих або налаштованих завдань, вони можуть досягти кращого коефіцієнта енергоефективності та ефективності обчислень, ніж мікросхеми загального призначення в конкретних сценаріях**.
Саме тому, що спеціалізовані мікросхеми можуть підвищити ефективність обчислень у певних сценаріях, це також стало технічним шляхом, який обирають Інтернет- та інші хмарні постачальники при розробці власних мікросхем.
Зазвичай мікросхеми власної розробки виробників Інтернет-хмари в основному обслуговують власні продукти, наголошуючи на максимальному випуску продуктивності мікросхем у своїй власній екології.
Попит AIGC на високопродуктивні обчислення зробив сервери ШІ найшвидше зростаючим сегментом серверної сфери.
Навчання великих моделей, таких як GPT-3, вимагає багато обчислювальних ресурсів і пам’яті, і зазвичай передбачає використання тисяч або навіть десятків тисяч графічних процесорів для прискорення навчання.
Оскільки ці обчислення мають дуже високі вимоги до продуктивності мікросхеми, для підтримки масових паралельних обчислень і високошвидкісної передачі даних потрібні спеціалізовані апаратні та програмні засоби.
Сервери штучного інтелекту — це сервери, спеціально розроблені для обробки робочих навантажень штучного інтелекту з використанням спеціалізованих апаратних прискорювачів (таких як GPU, TPU тощо), а також високошвидкісних мережевих з’єднань і сховищ для забезпечення високопродуктивних обчислювальних можливостей.
Навпаки, центральні процесори (сервери загального призначення) зазвичай не можуть задовольнити вимоги AIGC щодо надзвичайної обчислювальної потужності, а їхня обчислювальна потужність, пам’ять і ємність зберігання зазвичай низькі. Крім того, процесори зазвичай не мають спеціальних апаратних прискорювачів для забезпечення високошвидкісних обчислень.
Таким чином, для надання обчислювальних послуг навчання великомасштабної моделі має покладатися на кластери серверів ШІ.
Згідно з дослідженням Qubit Think Tank, після спалаху AIGC цього року вітчизняні виробники серверів загалом збільшили свій бізнес більш ніж на 30%**.
Нещодавно TrendForce також збільшив сукупний річний темп зростання поставок серверів ШІ з 2022 по 2026 рік до 22%. За зростанням бізнесу серверів штучного інтелекту найбільшими покупцями все ще залишаються інтернет-компанії.
У 2022 році основними покупцями в частці закупівель AI-серверів стануть такі великі виробники, як ByteDance, Tencent, Alibaba, Baidu тощо. Цього року ентузіазм щодо широкомасштабних досліджень і розробок моделей підштовхнув попит на купівлю низьких інтернет-компаній, що робить їх найбільшим покупцем серверів ШІ.
Модель MaaS була вперше запропонована Ali, а потім великі інтернет-компанії та компанії штучного інтелекту (такі як SenseTime) представили модель MaaS.
Крім того, такі компанії, як інтернет-гіганти та Huawei, вже використовували мікросхеми власної розробки при створенні баз MaaS.
У 2023 році провідні вітчизняні хмарні виробники послідовно запустять власні платформи MaaS, засновані на великих базах моделей, щоб надавати комплексні послуги MaaS для підприємств з обмеженими обчислювальними ресурсами та браком професійного досвіду.
Для хмарних постачальників основна мета послуг MaaS — допомогти клієнтам швидко створювати великі моделі для певної галузі. Виходячи з цього, вимір конкуренції між постачальниками хмарних технологій змінився на інфраструктуру обчислювальної потужності, загальні можливості великомасштабної моделі та можливості платформи/інструменту AI.
З точки зору розповсюдження обчислювального обладнання, на ринку серверів і серверів ШІ Пекін, Гуандун, Чжецзян, Шанхай і Цзянсу входять до п’ятірки лідерів із загальною часткою ринку (серверів і серверів ШІ) 75% і 90% (дані за 2021 рік) .
З точки зору постачання, більшість інтелектуальних обчислювальних центрів розташовано у Східній і Центральній провінціях, а бізнес AIGC потребує обробки великої кількості даних, що призводить до високої вартості ресурсів обчислювальної потужності в Схід**.
Перенесення завдань із високими вимогами до обчислень, таких як навчання великомасштабної моделі, у західний регіон формує «East Data Training», що може ефективно зменшити витрати та досягти оптимальної комплексної вартості ресурсів обчислювальної мережі.
Зокрема, щоб вирішити такі проблеми, як незбалансована пропозиція та попит на обчислювальну потужність, необхідно перенести обчислювальну потужність і завдання обробки даних на сході до західного регіону з меншими витратами через планування обчислювальної потужності. Серед них оптимізація мережі взаємозв’язку між сходом і заходом і мережі прямого з’єднання між вузлами-концентраторами є ключем до підвищення рівня планування обчислювальної потужності.
З точки зору попиту, попит на обчислювальну потужність AIGC в основному надходить від виробників, які розробляють великі моделі AIGC, в основному поширені в регіоні Пекін-Тяньцзінь-Хебей, дельті річки Янцзи та районі Великої затоки.
Наступає революція чіп-серверів
Тенденція великих моделей висуває нові вимоги до обчислювальної потужності та призводить до нових змін у базовому обладнанні. Давайте розглянемо два рівні чіпів і серверів:
рівень фішки
На даний момент серед високопродуктивних чіпів Nvidia A100 має абсолютну перевагу, а A100 є лише в Китаї, але не збільшується.Внутрішній ринок надасть вітчизняним виробникам GPU більше можливостей**.
Крім того, на рівні ливарного виробництва мікросхем наразі немає вітчизняного ливарного заводу, який би міг виконувати процеси 7 нм і вище, і більшість виробників графічних процесорів обирають зрілий процес + передові рішення для упаковки для досягнення вищих показників продуктивності.
На рівні кластера серверів високопродуктивні обчислення реалізуються за допомогою багатокарткових багатомашинних паралельних обчислень і високопродуктивної мережі.
Оскільки апаратне забезпечення + екологія CUDA, створене Nvidia, важко прорватися за 10 років, у майбутньому, коли високопродуктивний GPU буде обмежено, аналітики прогнозують, що буде два основних рішення для апаратного рівня, останнє – розробити технологію GPU + inter-chip Interconnect для досягнення масивних паралельних обчислень**.
Інший полягає в тому, щоб вийти з архітектури фон Неймана та розробити інтегровану архітектуру зберігання та обчислення для інтеграції обчислювальних блоків і блоків зберігання для досягнення порядку величини підвищення енергоефективності обчислень.
На рівні програмного забезпечення розріджені обчислення і побудова високопродуктивної мережі є двома рішеннями.
Інновації розріджених обчислень відображаються на рівні алгоритму. Видаляючи недійсні або зайві дані (такі дані зазвичай величезні), обсяг обчислень даних значно зменшується, тим самим прискорюючи обчислення.
Метою побудови високопродуктивної мережі є скорочення часу навчання великих моделей. Завдяки створенню високопродуктивної мережі кожен обчислювальний вузол має надвисоку пропускну здатність зв’язку, що в кілька разів покращує продуктивність трафіку, тим самим скорочуючи час навчання великих моделей.
Попит на обчислювальну потужність великих моделей штучного інтелекту зростає в геометричній прогресії, що робить сервери ШІ з більш високою конфігурацією основним носієм обчислювальної потужності AIGC.
Порівняно з традиційними серверами, обчислювальні можливості, можливості зберігання та мережевої передачі серверів AI можуть досягати вищого рівня.
Наприклад, конфігурація сервера NVIDIA DGX A100 з 8 графічним процесором і 2 процесорами набагато вища, ніж у традиційних серверів з 1~2 процесорами.
У моїй країні Інтелектуальний обчислювальний центр — це публічна інфраструктурна платформа, яка надає ресурси обчислювальної потужності для штучного інтелекту (великі моделі), а його обчислювальними потужностями є в основному навчальні сервери ШІ та сервери міркувань ШІ.
З розвитком великих моделей основний попит на майбутні сервери штучного інтелекту переміститься від навчання до висновків. Згідно з прогнозом IDC, до 2026 року 62,2% обчислювальної потужності AIGC буде використовуватися для модельних міркувань.
Зміни в галузі породжують нові можливості для бізнесу
Крім того, тенденція широкомасштабних моделей штучного інтелекту відкриває нові можливості для індустрії обчислювальної потужності, а також з’являються нові парадигми, нові продукти та нові інфраструктури.
Нові правила гри: MaaS змінює парадигму хмарних сервісів, замкнутий цикл бізнес-моделі AIGC
MaaS (модель як послуга) вбудовує великі моделі в обчислювальну потужність, алгоритми та рівні додатків, інтегрує програми з інтелектуальними базами та уніфікує зовнішній вихід.
Суть MaaS полягає в удосконаленні та інтеграції загальних базових технологій у галузі в сервіси для задоволення потреб різних сценаріїв застосування.
У процесі комерціалізації можливості великомасштабної моделі та допоміжні інструменти проміжного програмного забезпечення стануть новими вимірами, які підприємства повинні розглядати для постачальників хмарних обчислень.
Дискримінант можливостей хмарних обчислювальних послуг змістився з рівня обчислювальної потужності до можливостей «інтеграції хмари та інтелекту». Окрім інфраструктури обчислювальної потужності, основна конкурентоспроможність змінилася на здатність створювати обчислювальну потужність, моделі та прикладні програми. в стандартизовані продукти.
Універсальна машина моделі штучного інтелекту глибоко інтегрує програмне та апаратне забезпечення. Відповідно до різних потреб підприємств відповідні продукти або рішення розгортаються на сервері штучного інтелекту заздалегідь і упаковуються для формування повного набору рішень.
Цінова перевага універсальної машини моделі AI в основному відображається в наступних трьох пунктах:
Модель оренди обчислювальної потужності може ефективно знизити поріг для великомасштабної розробки моделей.Для невеликих модельних компаній у вертикальних галузях, які не мають сил придбати достатню кількість серверів ШІ, публічна базова платформа обчислювальної потужності допоможе малим і середнім підприємствам створювати власні необхідні моделі.
Підприємствам не потрібно купувати сервери, але вони можуть отримати доступ до центру обчислювальної потужності через браузер і скористатися послугами обчислювальної потужності.
Для малих і середніх підприємств немає потреби покладатися на велику модельну базу, створену хмарними постачальниками для вторинної розробки, а розробляти невеликі моделі вертикальних галузей, орендуючи ресурси обчислювальної потужності з публічних обчислювальних потужних платформ.
Прогноз розвитку галузі
Підсумовуючи, аналітичний центр qubit прогнозує майбутній розвиток AIGC, який можна розділити на три етапи:
Період інфраструктури AIGC
На даний момент більшість компаній на рівні моделі AIGC знаходяться на стадії попереднього навчання, і основним джерелом попиту на чіпи є GPU.
На початковому етапі найбільше виграшу отримають виробники високопродуктивних GPU.
Однак наразі існує великий розрив між вітчизняними виробниками GPU та Nvidia, і перший бенефіціар є домінуючою стороною на фондовому ринку.
Тому вітчизняні виробники серверів ШІ є сильними постачальниками на цьому етапі. На даний момент вітчизняні сервери ШІ відчувають дефіцит.
На середньостроковій стадії (протягом 5 років) рівень обчислювальної потужності є процесом переходу від навчання до міркувань.
На цьому етапі чіпи для міркувань стануть основним попитом. Порівняно з високою обчислювальною потужністю та високим енергоспоживанням графічного процесора та відповідною втратою обчислювальної потужності, чіп для висновків приділяє більше уваги коефіцієнту обчислювальної ефективності чіпа та має кращий контроль над споживанням енергії та вартістю. Крім того, на цьому етапі також буде можливість для інноваційних фішок.
Аналітики очікують більше ринкових можливостей для інтегрованих чіпів пам’яті, чіпів, натхненних мозком, і кремнієвих оптичних чіпів.
На етапі висновків периферійні обчислення матимуть більше можливостей, ніж хмарні обчислення на етапі навчання.
Перш за все, додатки, які відповідають етапу логічного висновку, мають тенденцію бути різноманітними, а різноманітні вимоги змушують хмарні обчислення генерувати більше марнування обчислювальної потужності та низьку ефективність обчислень.
По-друге, периферійні обчислення можуть забезпечити достатню обчислювальну потужність для міркування великої моделі.
На цьому етапі дивідендний період виробників серверів зі штучним інтелектом поступово досягне піку, і попит переміститься на недорогі сервери загального призначення; мікросхеми також перемістяться з GPU на NPU/ASIC/FPGA/CPU та інші форми співіснують. Серед вітчизняних інноваційних маршрутів чіпів ** оптимістично дивиться на розвиток інтегрованої архітектури зберігання даних**.
Почали з’являтися основні інноваційні переваги чіпів, і виробники чіпів із справді інноваційними технологіями, такими як інтегроване зберігання та обчислення, фотонні чіпи та чіпи, подібні до мозку, посилили свою роль на ринку.
Типи мікросхем, необхідних для обчислювальної потужності AIGC, більш різноманітні.
Підприємства на цьому етапі мають більш повний розгляд обчислювальної потужності, не тільки враховуючи розмір обчислювальної потужності, енергоспоживання та вартість можуть перевищувати розмір обчислювальної потужності та стати показниками, про які дбають компанії на кожному рівні моделі.
Отримати звіт
Натисніть на посилання нижче: