Lançado o Panorama do Poder Computacional AIGC e o Relatório de Tendências! Um artigo interpreta a composição do poder de computação da AIGC, cadeia da indústria e cinco novos julgamentos de tendências

Fonte: Qubit See More

O poder de computação da IA nunca foi tão atraente quanto agora.

Desde o surgimento da tendência de modelos grandes, o número e a escala de modelos grandes aumentaram drasticamente em apenas alguns meses.

As dezenas de bilhões de centenas de bilhões de modelos grandes subiram para dezenas, e o modelo grande de trilhões de parâmetros nasceu oficialmente.

Sob tais mudanças de magnitude, a demanda por poder de computação mostra mudanças drásticas.

As empresas de nível modelo estão adquirindo serviços de poder de computação a quase todo custo. O valor de mercado da Nvidia já ultrapassou um trilhão de dólares americanos, e o mercado de computação em nuvem está sendo reformulado em um ritmo acelerado...

Não há dúvida de que o poder de computação é a mesma energia básica da energia hidrelétrica e do petróleo para o desenvolvimento da indústria de AIGC.

Após o prelúdio da era AIGC, como entender a indústria de poder de computação é particularmente importante.

Que tipo de poder de computação a empresa precisa? Que mudanças acontecerão no setor de poder de computação devido ao surgimento do AIGC? Qual é a composição atual do mercado de poder de computação?

"AIGC Computing Power Panorama and Trend Report" está aqui para ajudá-lo a entender essas questões.

No relatório, o think tank qubit analisou sistematicamente a composição do poder de computação AIGC e a cadeia industrial e apontou ainda as cinco novas tendências do poder de computação AIGC** e a previsão de desenvolvimento de três estágios .

As ideias centrais incluem:

  • Impulsionados pelo AIGC, os chips competem por alto desempenho e grande poder de computação e introduzem uma nova arquitetura de computação;
  • O servidor AI surgiu repentinamente e a curva de bônus é treinada primeiro e depois raciocinada;
  • MaaS reformula paradigma de serviço em nuvem, modelo de negócios AIGC fechado;
  • A máquina all-in-one do modelo AI está pronta para sair, e a indústria tradicional está "pronta para uso";
  • O Centro de Computação Inteligente acompanha a operação do AIGC, e o modelo de aluguel de poder de computação tornou-se uma nova solução; ……

Vamos ver os detalhes um por um.

O crescimento dos negócios dos fabricantes de servidores domésticos excede 30%

A partir da análise do status quo atual da indústria, o corpo principal da indústria inclui principalmente:

  • lasca
  • Servidor AI (cluster)
  • computação em nuvem

Camada de chip: AIGC duas rotas fornecem poder de computação

Nos chips de computação, existem atualmente duas rotas principais na indústria para atender às necessidades de poder de computação da indústria de AIGC.

Uma delas é a rota da GPU representada pela Nvidia, que é chamada de chip universal.

A outra é a rota ASIC representada pela Huawei e Cambrian, que é chamada de rota de chip especial.

Atualmente, essas duas rotas reúnem diferentes tipos de jogadores, e as tarefas de computação que realizam também são diferentes.

Sob a rota de chip de uso geral, ele pode concluir diversas tarefas de computação e é adequado para computação paralela em grande escala.

Ou seja, o chip de uso geral (GPU) é mais adequado para o poder de computação atual do AIGC.

A vantagem da rota dedicada se reflete na melhor relação de eficiência energética em cenários específicos. Como os chips de uso especial são projetados para executar tarefas especializadas ou personalizadas, eles podem obter uma melhor taxa de eficiência de energia e eficiência de computação do que os chips de uso geral em cenários específicos**.

Apenas porque os chips dedicados podem liberar maior eficiência de computação em cenários específicos, também se tornou a rota técnica escolhida pela Internet e outros fornecedores de nuvem ao desenvolver seus próprios chips.

Normalmente, os chips autodesenvolvidos dos fabricantes de nuvem da Internet atendem principalmente a seus próprios produtos, enfatizando a liberação máxima do desempenho do chip em sua própria ecologia.

### Camada de servidor: o crescimento do negócio é óbvio, baseado principalmente em clientes de Internet

A demanda da AIGC por computação de alto desempenho tornou os servidores AI o segmento de crescimento mais rápido no campo de servidores.

O treinamento de modelo grande, como GPT-3, requer muitos recursos de computação e memória e geralmente envolve o uso de milhares ou mesmo dezenas de milhares de GPUs para acelerar o treinamento.

Como esses cálculos têm requisitos muito altos no desempenho do chip, hardware e software especializados são necessários para suportar computação massivamente paralela e transmissão de dados em alta velocidade.

Os servidores AI são servidores especialmente projetados para lidar com cargas de trabalho de inteligência artificial, usando aceleradores de hardware especializados (como GPUs, TPUs etc.), bem como conexões de rede de alta velocidade e armazenamento para fornecer recursos de computação de alto desempenho.

Em contraste, as CPUs (servidores de uso geral) geralmente não conseguem atender à demanda do AIGC por poder de computação extremo, e seu poder de computação, memória e capacidade de armazenamento geralmente são baixos. Além disso, as CPUs geralmente não possuem aceleradores de hardware dedicados para fornecer computação de alta velocidade.

Portanto, o treinamento de modelos em larga escala precisa contar com clusters de servidores de IA para fornecer serviços de computação.

De acordo com a pesquisa do Qubit Think Tank, após o surto de AIGC este ano, os fabricantes de servidores domésticos geralmente aumentaram seus negócios em mais de 30%**.

Recentemente, a TrendForce também elevou a taxa de crescimento anual composta das remessas de servidores de IA de 2022 a 2026 para 22%. Por trás do aumento nos negócios de servidores de IA, os maiores compradores ainda são empresas de Internet.

Em 2022, grandes fabricantes como ByteDance, Tencent, Alibaba, Baidu, etc. se tornarão os principais compradores na proporção de aquisição de servidores de IA. Este ano, o entusiasmo pela pesquisa e desenvolvimento de modelos em grande escala impulsionou a demanda de compra de empresas de Internet downstream, tornando-a ainda a maior compradora de servidores de IA.

### Computação em nuvem: MaaS remodela modelo de serviço, antigos e novos players reestruturam a competitividade

O modelo MaaS foi proposto pela primeira vez por Ali e, em seguida, grandes empresas de Internet e empresas de inteligência artificial (como SenseTime) introduziram o modelo MaaS.

Além disso, empresas como gigantes da Internet e Huawei já utilizaram chips autodesenvolvidos na construção de bases MaaS.

Em 2023, os principais fabricantes domésticos de nuvem lançarão sucessivamente suas próprias plataformas MaaS, baseadas em grandes bases de modelos, para fornecer serviços MaaS completos para empresas com recursos de computação limitados e falta de experiência profissional.

Para fornecedores de nuvem, o principal objetivo dos serviços MaaS é ajudar os clientes a criar rapidamente grandes modelos específicos do setor. Com base nisso, a dimensão da competição entre fornecedores de nuvem mudou para infraestrutura de poder de computação, recursos gerais de modelo em grande escala e recursos de plataforma/ferramenta de IA.

### Status do Intelligent Computing Center: fonte de alimentação de computação AI em nível de infraestrutura, criando um novo motor para o crescimento econômico regional

Do ponto de vista da distribuição de equipamentos de computação, no mercado de servidores e servidores de IA, Pequim, Guangdong, Zhejiang, Xangai e Jiangsu estão entre os cinco primeiros, com uma participação de mercado total de (servidor e servidor de IA) de 75% e 90% (dados de 2021) .

Do ponto de vista da oferta, a maioria dos centros de computação inteligente está localizada nas províncias Leste e Central, e o negócio AIGC precisa processar dados massivos, o que leva ao alto custo dos recursos de poder de computação no Leste**.

Mover tarefas com altos requisitos de computação, como treinamento de modelos em larga escala para a região oeste, forma o "East Data Training", que pode efetivamente reduzir custos e alcançar o custo abrangente ideal de recursos de rede de computação.

Especificamente, para resolver problemas como a oferta e a demanda desequilibradas da demanda de poder de computação, é necessário transferir o poder de computação e as tarefas de processamento de dados da região leste para a região oeste com custos menores por meio do escalonamento de poder de computação. Entre eles, otimizar a rede de interconexão entre o leste e o oeste e a rede de conexão direta entre os nós hub é a chave para melhorar o nível de escalonamento de poder computacional.

Do ponto de vista da demanda, a demanda por poder de computação AIGC vem principalmente de fabricantes que desenvolvem grandes modelos AIGC, distribuídos principalmente na região de Beijing-Tianjin-Hebei, no delta do rio Yangtze e na área da Grande Baía.

A revolução do servidor de chips está surgindo

A tendência de modelos grandes apresenta novos requisitos de poder de computação e leva a novas mudanças no hardware subjacente. Vejamos dois níveis de chips e servidores:

nível de chip

Atualmente, entre os chips de alto desempenho, o Nvidia A100 tem uma vantagem absoluta, e o A100 só tem estoque na China, mas sem aumento. O mercado doméstico dará aos fabricantes domésticos de GPU mais oportunidades**.

Além disso, no nível da fundição de chips, atualmente não há fundição doméstica que possa realizar processos de 7 nm e acima, e a maioria dos fabricantes de GPU escolhe processos maduros + soluções de embalagem avançadas para obter indicadores de desempenho mais altos.

No nível do cluster de servidor, a computação de alto desempenho é realizada por meio de computação paralela de várias máquinas e vários cartões e rede de alto desempenho.

Como o produto de hardware + ecologia CUDA construído pela Nvidia é difícil de romper em 10 anos, no futuro, quando a GPU de alto desempenho for limitada, os analistas prevêem que haverá duas soluções principais para a camada de hardware, a última é desenvolver tecnologia de interconexão entre chips e GPU para obter computação massivamente paralela**.

A outra é sair da arquitetura von Neumann e desenvolver uma arquitetura integrada de armazenamento e computação para integrar unidades de computação e unidades de armazenamento para obter uma melhoria de ordem de grandeza na eficiência energética da computação.

No nível do software, computação esparsa e construção de uma rede de alto desempenho são atualmente duas soluções.

A inovação da computação esparsa se reflete no nível do algoritmo.Ao excluir dados inválidos ou redundantes (esses dados geralmente são enormes), a quantidade de cálculo de dados é bastante reduzida, acelerando assim o cálculo.

O objetivo de construir uma rede de alto desempenho é reduzir o tempo de treinamento de grandes modelos. Ao construir uma rede de alto desempenho, cada nó de computação possui uma largura de banda de comunicação ultra-alta, trazendo várias vezes a melhoria no desempenho do tráfego, reduzindo assim o tempo de treinamento de grandes modelos.

### Nível do servidor

A demanda por poder de computação de grandes modelos de IA está aumentando exponencialmente, tornando os servidores de IA com configurações mais altas o principal portador do poder de computação AIGC.

Em comparação com os servidores tradicionais, os recursos de computação, armazenamento e transmissão de rede dos servidores AI podem atingir um nível mais alto.

Por exemplo, a configuração do servidor NVIDIA DGX A100 com 8 GPUs e 2 CPUs é muito maior do que a dos servidores tradicionais com 1 a 2 CPUs.

No meu país, o Centro de Computação Inteligente é uma plataforma de infraestrutura pública que fornece recursos de poder de computação para inteligência artificial (modelos grandes), e suas unidades de poder de computação são principalmente servidores de treinamento de IA e servidores de raciocínio de IA.

Com a evolução de grandes modelos, a principal demanda para futuros servidores de IA passará do treinamento para a inferência. De acordo com a previsão do IDC, até 2026, 62,2% do poder de computação do AIGC será usado para o raciocínio do modelo.

Mudanças na indústria geram novas oportunidades de negócios

Além disso, a tendência de modelos de IA em grande escala traz novas oportunidades para a indústria de poder de computação, e novos paradigmas, novos produtos e novas infraestruturas estão surgindo.

Novas regras do jogo: MaaS reformula paradigma de serviço em nuvem, ciclo fechado do modelo de negócios AIGC

MaaS (Model as a Service) incorpora grandes modelos em poder de computação, algoritmos e camadas de aplicativos, integra aplicativos com bases inteligentes e unifica a saída externa.

A essência do MaaS é refinar e integrar tecnologias básicas comuns no setor em serviços para atender às necessidades de vários cenários de aplicativos.

No processo de comercialização, as capacidades de modelo em grande escala e as ferramentas de middleware de suporte se tornarão novas dimensões a serem consideradas pelas empresas para fornecedores de computação em nuvem.

O discriminante das capacidades do serviço de computação em nuvem mudou do nível de poder de computação para a capacidade de "integração de inteligência em nuvem". em produtos padronizados.

### Novas espécies: a máquina tudo-em-um do modelo AI está pronta para sair, indústrias tradicionais "prontas para uso"

A máquina all-in-one do modelo AI integra profundamente software e hardware. De acordo com as diferentes necessidades das empresas, os produtos ou soluções correspondentes são implantados no servidor AI com antecedência e empacotados para formar um conjunto completo de soluções.

A vantagem de custo da máquina multifuncional do modelo AI se reflete principalmente nos três pontos a seguir:

    1. O preço total da compra é inferior ao preço da compra separada de software + hardware;
    1. Leva muito tempo para a empresa comprar o servidor separadamente e entregá-lo à empresa de IA para implantar o software. A máquina multifuncional do modelo de IA pode ser usada imediatamente, redução do custo de entrega;
    1. O número de servidores necessários é bastante reduzido, economizando custos de espaço para os clientes.

### Nova infraestrutura: o Centro de Computação Inteligente acompanha as operações AIGC, o modo de aluguel de energia de computação torna-se uma nova solução

O modelo de aluguel de poder de computação pode efetivamente reduzir o limite para o desenvolvimento de modelos em larga escala. Para pequenas empresas modelo em setores verticais que não têm força para comprar servidores de IA suficientes, a plataforma básica de poder de computação pública ajudará pequenas e médias empresas construir seus próprios modelos necessários.

As empresas não precisam comprar servidores, mas podem acessar o centro de poder de computação por meio de um navegador e usar serviços de poder de computação.

Para pequenas e médias empresas, não há necessidade de depender da grande base de modelo construída por fornecedores de nuvem para desenvolvimento secundário, mas sim de desenvolver pequenos modelos de setores verticais alugando recursos de poder de computação de plataformas de poder de computação públicas.

Previsão de Desenvolvimento da Indústria

Resumindo, o think tank qubit prevê o futuro desenvolvimento do AIGC, que pode ser dividido em três estágios:

  • Período de infraestrutura AIGC
  • Período de desenvolvimento AIGC *Período de negócios AIGC

Período de Infraestrutura AIGC

Atualmente, a maioria das empresas na camada de modelo AIGC está em estágio de pré-treinamento, e a principal fonte de demanda por chips é a GPU.

No estágio inicial, os fabricantes de GPU de alto desempenho se tornarão os maiores beneficiários.

No entanto, há uma grande lacuna entre os fabricantes domésticos de GPU e a Nvidia no momento, e o primeiro beneficiário é a parte dominante no mercado de ações.

Portanto, os fabricantes domésticos de servidores AI são fornecedores fortes nesta fase. Atualmente, o campo doméstico de servidores de IA está em falta.

### Período de desenvolvimento AIGC

No estágio intermediário (dentro de 5 anos), a camada de poder computacional é um processo de passar do treinamento ao raciocínio.

Nesta fase, os chips de raciocínio se tornarão o principal lado da demanda. Comparado com o alto poder de computação e alto consumo de energia da GPU e o correspondente desperdício de poder de computação, o chip de inferência presta mais atenção à taxa de eficiência computacional do chip e tem melhor controle sobre o consumo e custo de energia. Além disso, esta etapa também será uma oportunidade para chips inovadores.

Os analistas esperam mais oportunidades de mercado para chips integrados de computação de memória, chips inspirados no cérebro e chips ópticos de silício.

Na fase de inferência, a computação de borda terá mais oportunidades do que a computação em nuvem na fase de treinamento.

Em primeiro lugar, as aplicações correspondentes ao estágio de inferência tendem a ser diversificadas, e os diversos requisitos fazem com que a computação em nuvem gere mais desperdício de poder computacional e baixa eficiência computacional.

Em segundo lugar, a computação de borda pode fornecer poder de computação suficiente para raciocínio de modelo grande.

Nesta fase, o período de dividendos dos fabricantes de servidores AI atingirá gradualmente o pico e a demanda mudará para servidores de uso geral de custo mais baixo; os chips também mudarão de GPU para NPU/ASIC/FPGA/CPU e outras formas coexistem. Entre as rotas de chips inovadores nacionais, ** está otimista com o desenvolvimento de armazenamento integrado e arquitetura de computação **.

### Período Comercial AIGC

As vantagens subjacentes à inovação dos chips começaram a surgir, e os fabricantes de chips com tecnologias verdadeiramente inovadoras, como armazenamento e integração de computação, chips fotônicos e chips semelhantes a cérebros, aumentaram seu papel no mercado.

Os tipos de chips necessários para o poder de computação AIGC são mais diversos.

As empresas nesta fase têm uma consideração mais abrangente do poder de computação, não apenas considerando o tamanho do poder de computação, o consumo de energia e o custo podem exceder o tamanho do poder de computação e se tornar os indicadores com os quais as empresas em cada camada do modelo se preocupam.

Relatório obtido

Clique no link abaixo:

Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
0/400
Sem comentários
  • Marcar
Faça trade de criptomoedas em qualquer lugar e a qualquer hora
qrCode
Escaneie o código para baixar o app da Gate
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)