Netranet – Blog Oficial | Segurança da Informação, Proteção de Dados e Soluções de Data Center

Intel reinventando Xeon para AI – mas é tarde demais?

Blog Netranet | Intel reinventando Xeon para AI - mas é tarde demais?

Blog Netranet | Intel reinventando Xeon para AI - mas é tarde demais?

Intel reinventando Xeon para AI – mas é tarde demais?

Em um mercado em que está se recuperando, a Intel está empenhada em tornar seu chip Xeon o processador padrão para inteligência artificial, desafiando a Nvidia e outras várias empresas emergentes de hardware de AI.

A Intel continua a otimizar o Xeon para Inteligência Artificial e está trabalhando com a Amazon Web Services Inc. e o Facebook para implantar o Xeon para cargas de trabalho de AI, como disse Navin Shenoy, vice-presidente executivo e gerente geral do Data Center Group, na Conferência de Inovação em Centros de Dados da empresa, no dia 9 de Agosto, última quarta-feira.

A Intel informou US $1 bilhão em receita durante 2017 de clientes que executam AI em processadores Xeon em data centers, o que representa um crescimento rápido, observou Shenoy.

A Intel espera que haja mais melhorias da Inteligência Artificial com seu próximo processador Xeon, codinome Cascade Lake, que deve ser lançado no final do ano. Ele terá um controlador de memória integrado para suportar a nova memória persistente Optane da Intel, atualizações de segurança para proteger contra as vulnerabilidades Specter e Meltdown e aprimoramentos gerais que devem proporcionar uma melhoria de desempenho 11x do processador Skylake que já está sendo lançado.

Na quarta-feira, a Intel anunciou uma nova extensão de AI para a Xeon que chama de Intel Deep Learning Boost, que será lançada com o processador Cascade Lake este ano.

A Intel seguirá o Cascade Lake com o Cooper Lake no final de 2019, um chip de 14 nanômetros com melhorias de desempenho em relação ao seu antecessor. E o Ice Lake levará o tamanho do chip para 10 nanômetros em 2020, diz Shenoy.

O Xeon não estava bem otimizado para a AI há dois anos, mas desde então tem melhorado o desempenho na inferência – na verdade, usando AI na produção, ao contrário do treinamento – em 5.4x no Skylake.

Um novo chip otimizado para AI, o Intel Nervana NNP L-1000, está previsto para ser lançado em 2019. O chip será otimizado para memória, largura de banda, utilização e energia; possuem 3-4x o desempenho de treinamento de um produto NNP de primeira geração; e fornecer interconexões de alta largura de banda e baixa latência, diz a Intel.

Ele será lançado conforme o mercado começa a crescer significativamente: a Intel acredita que o mercado de chips de AI vale cerca de US $ 2,5 bilhões por ano, crescendo para US$ 8 – US$ 10 bilhões até 2022 a uma taxa de crescimento anual composta de 30% (CAGR).

Mas a Intel enfrenta uma concorrência ao tentar capturar esse gasto, segundo o principal analista da Ovum , Michael Azoff. “A Nvidia, com suas GPUs, é o gorila do mercado de aprendizagem profunda. A Intel perdeu um pouco o barco“, disse ele.

Não está claro se a Intel pode alcançar, com Nervana não chegando até o final do próximo ano, disse Azof. E a Nvidia Corp. (Nasdaq: NVDA) não é a única competição aqui; startup A Graphcore tem um processador AI otimizado que deve ser lançado no próximo mês e deve fornecer memória de alta largura de banda localizada próxima às funções de computação para acelerar o desempenho dos requisitos intensivos de dados da inteligência artificial.

O analista Linley Gwennap, presidente e principal analista do Linley Group, concordou com a Azof, observando a concorrência emergente adicional da Wave Computing e da Cerebras .

A Intel obviamente tem muito poder para trazer ao mercado, então não é tarde demais“, disse Gwenapp. “Mas teria sido melhor se isso acontecesse mais cedo.

A Intel vê a AI emergir como a “carga crítica de trabalho” para computação, afirmou Naveen Rao, vice-presidente corporativo da Intel e gerente geral do Artificial Intelligence Products Group. “A computação é AI. Os computadores originais foram construídos para recapitular as habilidades do cérebro“, disse Rao.

O desenvolvimento da AI requer uma perícia formidável e é demorado, o que atualmente é um fator limitante no crescimento do mercado, disse Rao. “No geral, nos preocupamos em reduzir o tempo de desenvolvimento da IA e colocá-la no mercado mais rapidamente“, disse ele.

A Intel está trabalhando com comunidades de código aberto para reforçar a pilha de ferramentas de inteligência artificial e acelerar o desenvolvimento. “Hoje, os cientistas de dados e pesquisadores de IA são alguns milhares em todo o mundo. Queremos conseguir capacitar o verdadeiro desenvolvedor corporativo – a população de 25.350 milhões, onde podemos realmente ver escala maciça para adoção“, disse Rao.

Para esse fim, a Intel lançou um programa de construtores de AI em maio, que conta com 95 membros em vários setores verticais: saúde; serviços financeiros; varejo; transporte; notícias, mídia e entretenimento; agricultura; legal e RH; e automação de processos robóticos. O programa também atravessa funções tecnológicas horizontais: Business Intelligence e Analytics; Visão; Robots de conversação; Ferramentas de AI e Consultoria; e AI plataforma como serviço.

Leia também:

Sair da versão mobile