Laporan Panorama dan Tren AIGC Computing Power Dirilis! Satu artikel menginterpretasikan komposisi kekuatan komputasi AIGC, rantai industri, dan lima penilaian tren baru

Sumber: Qubit

Daya komputasi AI tidak pernah semenarik sekarang.

Sejak kemunculan tren model besar, jumlah dan skala model besar meningkat drastis hanya dalam beberapa bulan.

Puluhan miliar dari ratusan miliar model besar telah melonjak hingga puluhan, dan model besar triliun parameter telah resmi lahir.

Di bawah perubahan sebesar itu, permintaan daya komputasi menunjukkan perubahan drastis.

Perusahaan tingkat model mengambil layanan daya komputasi di hampir semua biaya Nilai pasar Nvidia pernah melebihi satu triliun dolar AS, dan pasar komputasi awan sedang dibentuk kembali dengan kecepatan yang dipercepat...

Tidak diragukan lagi bahwa daya komputasi adalah energi dasar yang sama dengan tenaga air dan minyak untuk pengembangan industri AIGC.

Setelah pendahuluan era AIGC, cara memahami industri daya komputasi menjadi sangat penting.

Jenis daya komputasi apa yang dibutuhkan perusahaan? Perubahan apa yang akan terjadi pada industri tenaga komputasi akibat munculnya AIGC? Apa komposisi pasar daya komputasi saat ini?

"AIGC Computing Power Panorama and Trend Report" hadir untuk membantu Anda memahami masalah ini.

Dalam laporan tersebut, think tank qubit secara sistematis menganalisis komposisi daya komputasi AIGC dan rantai industri, dan selanjutnya menunjukkan lima tren baru daya komputasi AIGC** dan prakiraan pengembangan tiga tahap .

Gagasan inti meliputi:

  • Didorong oleh AIGC, chip bersaing untuk performa tinggi dan daya komputasi yang besar, serta memperkenalkan arsitektur komputasi baru;
  • Server AI tiba-tiba muncul, dan kurva bonus dilatih terlebih dahulu dan kemudian beralasan;
  • MaaS membentuk kembali paradigma layanan cloud, model bisnis loop tertutup AIGC;
  • Mesin all-in-one model AI siap untuk keluar, dan industri tradisional "di luar kotak";
  • Pusat Komputasi Cerdas mengawal pengoperasian AIGC, dan model penyewaan daya komputasi telah menjadi solusi baru; ……

Mari kita lihat detailnya satu per satu.

Pertumbuhan bisnis produsen server domestik melebihi 30%

Dari analisis status quo industri saat ini, badan utama industri ini terutama meliputi:

  • keping
  • AI server (cluster)
  • komputasi awan

Lapisan chip: Dua rute AIGC menyediakan daya komputasi

Dalam chip komputasi, saat ini ada dua rute utama di industri untuk memenuhi kebutuhan daya komputasi industri AIGC.

Salah satunya adalah rute GPU yang diwakili oleh Nvidia, yang disebut universal chip.

Yang lainnya adalah rute ASIC yang diwakili oleh Huawei dan Cambrian, yang disebut rute chip khusus.

Saat ini, kedua rute ini menyatukan berbagai jenis pemain, dan tugas komputasi yang mereka lakukan juga berbeda.

Di bawah rute chip tujuan umum, ini dapat menyelesaikan tugas komputasi yang beragam dan cocok untuk komputasi paralel skala besar.

Artinya, general-purpose chip (GPU) lebih cocok untuk daya komputasi AIGC saat ini.

Keuntungan dari rute khusus tercermin dalam rasio efisiensi energi yang lebih baik dalam skenario tertentu. Karena chip tujuan khusus dirancang untuk melakukan tugas khusus atau disesuaikan, mereka dapat mencapai rasio efisiensi energi dan efisiensi komputasi yang lebih baik daripada chip tujuan umum dalam skenario tertentu**.

Hanya karena chip khusus dapat menghasilkan efisiensi komputasi yang lebih besar dalam skenario tertentu, ini juga menjadi jalur teknis yang dipilih oleh Internet dan vendor cloud lainnya saat mengembangkan chip mereka sendiri.

Biasanya, chip yang dikembangkan sendiri oleh produsen cloud Internet terutama melayani produk mereka sendiri, menekankan rilis maksimum kinerja chip dalam ekologi mereka sendiri.

### Lapisan server: pertumbuhan bisnis terlihat jelas, terutama berdasarkan pelanggan Internet

Permintaan AIGC untuk komputasi berperforma tinggi telah menjadikan server AI sebagai segmen dengan pertumbuhan tercepat di bidang server.

Pelatihan model besar, seperti GPT-3, membutuhkan banyak sumber daya komputasi dan memori, dan biasanya melibatkan penggunaan ribuan atau bahkan puluhan ribu GPU untuk mempercepat pelatihan.

Karena kalkulasi ini memiliki persyaratan kinerja chip yang sangat tinggi, perangkat keras dan perangkat lunak khusus diperlukan untuk mendukung komputasi paralel masif dan transmisi data berkecepatan tinggi.

Server AI adalah server yang dirancang khusus untuk menangani beban kerja kecerdasan buatan, menggunakan akselerator perangkat keras khusus (seperti GPU, TPU, dll.), serta koneksi dan penyimpanan jaringan berkecepatan tinggi untuk memberikan kemampuan komputasi performa tinggi.

Sebaliknya, CPU (server tujuan umum) biasanya tidak dapat memenuhi permintaan AIGC untuk daya komputasi ekstrem, dan daya komputasi, memori, dan kapasitas penyimpanannya biasanya rendah. Selain itu, CPU biasanya tidak memiliki akselerator perangkat keras khusus untuk menyediakan komputasi berkecepatan tinggi.

Oleh karena itu, pelatihan model berskala besar perlu mengandalkan cluster server AI untuk menyediakan layanan komputasi.

Menurut penelitian Qubit Think Tank, setelah pecahnya AIGC tahun ini, produsen server domestik umumnya meningkatkan bisnis mereka lebih dari 30%**.

Baru-baru ini, TrendForce juga menaikkan tingkat pertumbuhan tahunan gabungan pengiriman server AI dari 2022 hingga 2026 menjadi 22%. Di balik maraknya bisnis server AI, pembeli terbesar masih perusahaan internet.

Pada tahun 2022, pabrikan besar seperti ByteDance, Tencent, Alibaba, Baidu, dll. akan menjadi pembeli utama dalam proporsi pengadaan server AI. Tahun ini, antusiasme untuk penelitian dan pengembangan model berskala besar telah mendorong permintaan pembelian dari perusahaan Internet hilir, menjadikannya pembeli terbesar server AI.

### Cloud Computing: MaaS Reshape Service Model, Restrukturisasi Daya Saing Pemain Lama dan Baru

Model MaaS pertama kali diusulkan oleh Ali, dan kemudian perusahaan Internet besar dan perusahaan kecerdasan buatan (seperti SenseTime) telah memperkenalkan model MaaS.

Selain itu, perusahaan seperti raksasa internet dan Huawei telah menggunakan chip yang dikembangkan sendiri dalam pembangunan basis MaaS.

Pada tahun 2023, produsen cloud domestik terkemuka akan secara berturut-turut meluncurkan platform MaaS mereka sendiri, berdasarkan basis model besar, untuk menyediakan layanan MaaS satu atap bagi perusahaan dengan sumber daya komputasi terbatas dan kurangnya pengalaman profesional.

Untuk vendor cloud, tujuan utama layanan MaaS adalah membantu pelanggan dengan cepat membangun model besar khusus industri. Berdasarkan hal tersebut, dimensi persaingan antara vendor cloud telah berubah menjadi infrastruktur daya komputasi, kemampuan model skala besar secara umum, dan kemampuan platform/alat AI.

### Status Pusat Komputasi Cerdas: catu daya komputasi AI tingkat infrastruktur, menciptakan mesin baru untuk pertumbuhan ekonomi regional

Dari perspektif distribusi peralatan komputasi, di pasar server dan server AI, Beijing, Guangdong, Zhejiang, Shanghai, dan Jiangsu menempati peringkat lima besar, dengan total pangsa pasar (server dan server AI) sebesar 75% dan 90% (data tahun 2021) .

Dari perspektif pasokan, sebagian besar pusat komputasi cerdas terletak di provinsi Timur dan Pusat, dan bisnis AIGC perlu memproses data dalam jumlah besar, yang menyebabkan tingginya biaya sumber daya daya komputasi di Timur**.

Memindahkan tugas dengan persyaratan komputasi tinggi seperti pelatihan model berskala besar ke wilayah barat membentuk "Pelatihan Data Timur", yang dapat secara efektif mengurangi biaya dan mencapai biaya komprehensif yang optimal untuk sumber daya jaringan komputasi.

Secara khusus, untuk mengatasi masalah seperti pasokan dan permintaan permintaan daya komputasi yang tidak seimbang, perlu untuk mentransfer daya komputasi dan tugas pemrosesan data di wilayah timur ke wilayah barat dengan biaya lebih rendah melalui penjadwalan daya komputasi. Diantaranya, optimalisasi jaringan interkoneksi antara timur dan barat serta jaringan koneksi langsung antar node hub merupakan kunci untuk meningkatkan tingkat penjadwalan daya komputasi.

Dari perspektif permintaan, permintaan daya komputasi AIGC terutama berasal dari produsen yang mengembangkan model besar AIGC, terutama didistribusikan di wilayah Beijing-Tianjin-Hebei, Delta Sungai Yangtze, dan Greater Bay Area.

Revolusi server chip muncul

Tren model besar mengedepankan persyaratan baru untuk daya komputasi dan mengarah pada perubahan baru pada perangkat keras yang mendasarinya. Mari kita lihat dua level chip dan server:

tingkat chip

Saat ini, di antara chip berperforma tinggi, Nvidia A100 memiliki keunggulan absolut, dan A100 hanya memiliki stok di China tetapi tidak ada peningkatan.Pasar domestik akan memberi lebih banyak peluang bagi pabrikan GPU domestik**.

Selain itu, pada tingkat pengecoran chip, saat ini tidak ada pengecoran dalam negeri yang dapat melakukan proses 7nm ke atas, dan sebagian besar produsen GPU memilih proses matang + solusi pengemasan lanjutan untuk mencapai indikator kinerja yang lebih tinggi.

Pada tingkat cluster server, komputasi performa tinggi diwujudkan melalui komputasi paralel multi-kartu multi-mesin dan jaringan performa tinggi.

Karena produk perangkat keras + ekologi CUDA yang dibangun oleh Nvidia sulit ditembus dalam 10 tahun, di masa depan ketika GPU berperforma tinggi terbatas, analis memperkirakan akan ada dua solusi utama untuk lapisan perangkat keras, yang terakhir adalah untuk mengembangkan teknologi Interkoneksi antar-chip GPU + untuk mencapai komputasi paralel yang masif**.

Cara lainnya adalah keluar dari arsitektur von Neumann dan mengembangkan arsitektur penyimpanan dan komputasi yang terintegrasi untuk mengintegrasikan unit komputasi dan unit penyimpanan guna mencapai urutan peningkatan yang sangat besar dalam efisiensi energi komputasi.

Pada tingkat perangkat lunak, komputasi jarang dan membangun jaringan berperforma tinggi saat ini merupakan dua solusi.

Inovasi komputasi jarang tercermin dalam tingkat algoritme, dengan menghapus data yang tidak valid atau redundan (data tersebut biasanya sangat besar), jumlah kalkulasi data sangat berkurang, sehingga mempercepat kalkulasi.

Tujuan membangun jaringan berkinerja tinggi adalah untuk mengurangi waktu pelatihan model besar. Dengan membangun jaringan berkinerja tinggi, setiap node komputasi memiliki bandwidth komunikasi yang sangat tinggi, membawa beberapa kali peningkatan kinerja lalu lintas, sehingga mempersingkat waktu pelatihan model besar.

### Level server

Permintaan daya komputasi model besar AI meningkat secara eksponensial, menjadikan server AI dengan konfigurasi yang lebih tinggi sebagai pembawa utama daya komputasi AIGC.

Dibandingkan dengan server tradisional, kemampuan komputasi, penyimpanan, dan transmisi jaringan server AI dapat mencapai tingkat yang lebih tinggi.

Misalnya, konfigurasi server NVIDIA DGX A100 dengan 8 GPU dan 2 CPU jauh lebih tinggi daripada server tradisional dengan 1~2 CPU.

Di negara saya, Intelligent Computing Center adalah platform infrastruktur publik yang menyediakan sumber daya komputasi untuk kecerdasan buatan (model besar), dan unit daya komputasinya sebagian besar adalah server pelatihan AI dan server penalaran AI.

Dengan evolusi model besar, permintaan utama untuk server AI di masa mendatang akan beralih dari pelatihan ke inferensi. Menurut perkiraan IDC, pada tahun 2026, 62,2% daya komputasi AIGC akan digunakan untuk penalaran model.

Perubahan industri melahirkan peluang bisnis baru

Selain itu, tren model skala besar AI menghadirkan peluang baru bagi industri daya komputasi, dan paradigma baru, produk baru, dan infrastruktur baru bermunculan.

Aturan permainan baru: MaaS membentuk kembali paradigma layanan cloud, loop tertutup model bisnis AIGC

MaaS (Model as a Service) menyematkan model besar dalam daya komputasi, algoritme, dan lapisan aplikasi, mengintegrasikan aplikasi dengan basis cerdas, dan menyatukan output eksternal.

Inti dari MaaS adalah menyempurnakan dan mengintegrasikan teknologi dasar umum dalam industri ke dalam layanan untuk memenuhi kebutuhan berbagai skenario aplikasi.

Dalam proses komersialisasi, kemampuan model berskala besar dan alat middleware pendukung akan menjadi dimensi baru bagi perusahaan untuk dipertimbangkan bagi vendor cloud computing.

Diskriminan kemampuan layanan komputasi awan telah bergeser dari tingkat daya komputasi ke kemampuan "integrasi kecerdasan awan". Selain infrastruktur daya komputasi, daya saing inti telah berubah menjadi kemampuan untuk membangun daya komputasi, model, dan aplikasi adegan menjadi produk standar.

### Spesies baru: mesin all-in-one model AI siap diluncurkan, industri tradisional "di luar kotak"

Mesin all-in-one model AI sangat mengintegrasikan perangkat lunak dan perangkat keras Sesuai dengan kebutuhan perusahaan yang berbeda, produk atau solusi yang sesuai ditempatkan di server AI terlebih dahulu dan dikemas untuk membentuk satu set lengkap solusi.

Keuntungan biaya dari mesin all-in-one model AI terutama tercermin dalam tiga poin berikut:

    1. Harga pembelian keseluruhan lebih rendah dari harga pembelian perangkat lunak + perangkat keras terpisah;
    1. Butuh waktu lama bagi perusahaan untuk membeli server secara terpisah dan menyerahkannya ke perusahaan AI untuk menerapkan perangkat lunak. Mesin all-in-one model AI dapat digunakan di luar kotak, mengurangi biaya pengiriman;
    1. Jumlah server yang dibutuhkan sangat berkurang, menghemat biaya ruang bagi pelanggan.

### Infrastruktur Baru: Pusat Komputasi Cerdas mengawal operasi AIGC, mode penyewaan daya komputasi menjadi solusi baru

Model penyewaan daya komputasi dapat secara efektif menurunkan ambang batas untuk pengembangan model skala besar.Untuk perusahaan model kecil di industri vertikal yang tidak memiliki kekuatan untuk membeli server AI yang cukup, platform dasar daya komputasi publik akan membantu perusahaan kecil dan menengah membangun model yang mereka butuhkan sendiri.

Perusahaan tidak perlu membeli server, tetapi dapat mengakses pusat daya komputasi melalui browser dan menggunakan layanan daya komputasi.

Untuk perusahaan kecil dan menengah, tidak perlu bergantung pada basis model besar yang dibangun oleh vendor cloud untuk pengembangan sekunder, tetapi mengembangkan model kecil industri vertikal dengan menyewa sumber daya komputasi dari platform daya komputasi publik.

Ramalan Perkembangan Industri

Singkatnya, think tank qubit memprediksi perkembangan AIGC di masa depan, yang dapat dibagi menjadi tiga tahap:

  • Periode infrastruktur AIGC
  • Periode pengembangan AIGC
  • Periode bisnis AIGC

Periode Infrastruktur AIGC

Saat ini, sebagian besar perusahaan di lapisan model AIGC sedang dalam tahap pra-pelatihan, dan sumber utama permintaan chip adalah GPU.

Pada tahap awal, pabrikan GPU berperforma tinggi akan menjadi penerima manfaat terbesar.

Namun, ada kesenjangan besar antara pabrikan GPU dalam negeri dan Nvidia saat ini, dan pihak yang diuntungkan pertama kali adalah pihak dominan di pasar saham.

Oleh karena itu, produsen server AI dalam negeri adalah pemasok yang kuat pada tahap ini. Saat ini, bidang server AI domestik kekurangan pasokan.

### Periode pengembangan AIGC

Pada tahap jangka menengah (dalam 5 tahun), lapisan kekuatan komputasi adalah proses bersandar dari pelatihan ke penalaran.

Pada tahap ini, chip penalaran akan menjadi sisi permintaan utama. Dibandingkan dengan daya komputasi yang tinggi dan konsumsi daya GPU yang tinggi dan pemborosan daya komputasi yang sesuai, chip inferensi lebih memperhatikan rasio efisiensi komputasi chip, dan memiliki kontrol yang lebih baik atas konsumsi daya dan biaya. Selain itu, tahapan ini juga akan menjadi peluang bagi inovasi chip.

Analis mengharapkan lebih banyak peluang pasar untuk chip terintegrasi komputasi memori, chip yang terinspirasi otak, dan chip silikon-optik.

Pada fase inferensi, komputasi tepi akan memiliki lebih banyak peluang daripada komputasi awan pada fase pelatihan.

Pertama-tama, aplikasi yang sesuai dengan tahap inferensi cenderung beragam, dan persyaratan yang beragam membuat komputasi awan menghasilkan lebih banyak pemborosan daya komputasi dan efisiensi komputasi yang rendah.

Kedua, edge computing dapat memberikan daya komputasi yang cukup untuk penalaran model yang besar.

Pada tahap ini, periode dividen produsen server AI akan secara bertahap mencapai puncaknya, dan permintaan akan beralih ke server tujuan umum berbiaya rendah; chip juga akan beralih dari GPU ke NPU/ASIC/FPGA/CPU dan bentuk lainnya hidup berdampingan. Di antara rute chip inovatif dalam negeri, ** optimis tentang pengembangan arsitektur penyimpanan-komputasi terintegrasi**.

### Periode Bisnis AIGC

Keunggulan inovasi yang mendasari chip sudah mulai muncul, dan produsen chip dengan teknologi yang benar-benar inovatif seperti penyimpanan dan komputasi terintegrasi, chip fotonik, dan chip seperti otak telah meningkatkan peran mereka di pasar.

Jenis chip yang dibutuhkan untuk daya komputasi AIGC lebih beragam.

Perusahaan pada tahap ini memiliki pertimbangan daya komputasi yang lebih komprehensif, tidak hanya mempertimbangkan ukuran daya komputasi, konsumsi daya dan biaya dapat melebihi ukuran daya komputasi dan menjadi indikator yang diperhatikan perusahaan pada setiap lapisan model.

Dapatkan Laporan

Klik tautan di bawah ini:

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
0/400
Tidak ada komentar
  • Sematkan
Perdagangkan Kripto Di Mana Saja Kapan Saja
qrCode
Pindai untuk mengunduh aplikasi Gate
Komunitas
Bahasa Indonesia
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)