Se trata de los chips en la guerra de la IA – Es de Latino News

Se trata de los chips en la guerra de la IA – Es de Latino News

A medida que estalla una lucha total por el dominio de la IA en la industria tecnológica, Wall Street ha hecho una apuesta anticipada sobre quiénes serán los mayores ganadores: las empresas que fabrican las armas que usarán todos los combatientes.

Eso significa específicamente, los chips avanzados necesarios para los sistemas de “IA generativa” como el chatbot ChatGPT y los sistemas de imágenes como Dall-E.

Y los inversores no apuestan por ningún fabricante. Las acciones de Nvidia, cuyas unidades de procesamiento de gráficos, o GPU, dominan el mercado para entrenar grandes modelos de IA, subieron un 55 por ciento este año. También se han duplicado desde octubre, cuando Nvidia estaba bajo una nube debido a una combinación del colapso de las criptomonedas (sus chips fueron ampliamente utilizados por los mineros de criptomonedas), un colapso en las ventas de PC y una transición de producto mal administrada en los chips del centro de datos.

Una estrategia de inversión de “picos y palas” tiene sentido cuando todavía es difícil saber cómo se desarrollará una nueva tecnología. Las grandes empresas de tecnología se están preparando para usar nuevos y costosos sistemas de IA entre sí sin una señal clara aún de cómo obtener una ventaja duradera.

Lo único seguro es que se desplegará una gran cantidad de silicio avanzado y se consumirá energía. Pero, ¿qué tipo de silicio será y quién podrá suministrarlo mejor?

Parece seguro decir que las GPU tendrán una gran demanda, lo que beneficiará a Nvidia y, en menor medida, a AMD (cuyas acciones han subido un 30 por ciento este año). Además del trabajo de entrenar grandes modelos de IA, es probable que las GPU también se usen más ampliamente en la inferencia: el trabajo de comparar datos del mundo real con un modelo entrenado para proporcionar una respuesta útil.

Hasta ahora, la inferencia de IA ha sido un mercado próspero para empresas como Intel que fabrican CPU (procesadores que pueden manejar una gama más amplia de tareas pero que son menos eficientes de ejecutar). Pero es probable que los modelos de IA utilizados en los sistemas generativos sean demasiado grandes para las CPU, lo que requiere GPU más potentes para manejar esta tarea, según Karl Freund de Cambrian AI Research.

Hace cinco años, no estaba nada seguro de que Nvidia estaría en esta posición. Con las demandas computacionales del aprendizaje automático aumentando exponencialmente, han surgido una serie de nuevas empresas para hacer “aceleradores” de IA especializados. Estos llamados ASIC, circuitos integrados específicos de la aplicación, diseñados para realizar solo una tarea pero de la manera más eficiente, sugirieron una mejor manera de manejar una operación de procesamiento intensivo de datos.

Sin embargo, las predicciones de que las GPU no coincidirían con este hardware especialmente diseñado resultaron ser incorrectas y Nvidia todavía está en la cima. Eso se debe en gran parte a su software Cuda, que se utiliza para ejecutar aplicaciones en las GPU de la empresa, lo que vincula a los desarrolladores con los chips de Nvidia y reduce el incentivo para comprar a AMD.

Nvidia también tiene un nuevo producto que llega al mercado en el momento adecuado, en forma de su nuevo chip H100. Esto ha sido diseñado específicamente para manejar transformadores, la técnica de IA detrás de los grandes avances recientes en modelos de lenguaje y visión. Para los diseñadores de ASIC, los cambios en la arquitectura subyacente como este son difíciles de manejar. Rediseñar cada nueva generación de chips es costoso y puede ser difícil vender lo suficiente para pagar los costos de desarrollo.

Pero la competencia está a punto de volverse más feroz. El éxito de Microsoft en aprovechar la investigación de OpenAI para liderar la IA generativa se debe en gran parte al hardware especializado que ha construido para ejecutar modelos de OpenAI. Estos están basados ​​en GPU, pero la industria de los chips ha estado plagada de especulaciones de que el gigante del software ahora está diseñando sus propios aceleradores de IA.

Si lo haces, seguro que no serás el único. Google decidió hace ocho años diseñar sus propios chips, conocidos como unidades de procesamiento de tensor, o TPU, para manejar su trabajo de IA más intensivo. Amazon y Meta han seguido su ejemplo. La idea de los transformadores se originó en Google, lo que sugiere que el gigante de las búsquedas, como mínimo, habrá optimizado sus últimos chips para que funcionen con los nuevos modelos de IA.

Otra amenaza inminente podría provenir del mismo OpenAI. La empresa de investigación detrás de ChatGPT ha desarrollado su propio software, llamado Triton, para ayudar a los desarrolladores a ejecutar sus redes neuronales en GPU. Eso podría reducir la necesidad de Cuda de Nvidia, un paso hacia la mercantilización de sus chips y dar a los desarrolladores como OpenAI la oportunidad de implementar sus modelos en cualquier hardware.

Si el mercado de la IA termina en manos de un pequeño número de empresas tecnológicas gigantes, cada una con un amplio incentivo financiero para diseñar sus propios chips especializados, las perspectivas a largo plazo de Nvidia se verán afectadas. Pero ha desafiado a los escépticos antes y, al menos por ahora, está bien posicionado para el último episodio de manía de IA del mundo tecnológico.

[email protected]

Leer más: Se trata de los chips en la guerra de la IA

Esta nota es parte de la red de Wepolis y fué publicada por Corresponsal Europa News el 2023-02-17 06:26:52 en:

Link a la nota original

Palabras clave:
#trata #los #chips #guerra #Latino #News

About the author

Pretium lorem primis senectus habitasse lectus donec ultricies tortor adipiscing fusce morbi volutpat pellentesque consectetur risus molestie curae malesuada. Dignissim lacus convallis massa mauris enim mattis magnis senectus montes mollis phasellus.

Leave a Comment