Las grandes empresas tecnológicas como Microsoft y Google están lidiando con el desafío de convertir productos de inteligencia artificial como ChatGPT en una empresa rentable, informa The Wall Street Journal. Si bien las empresas están invirtiendo mucho en tecnología de inteligencia artificial que puede generar memorandos o códigos comerciales, el costo de ejecutar modelos avanzados de inteligencia artificial está demostrando ser un obstáculo importante. Algunos servicios, como GitHub Copilot de Microsoft, generan pérdidas operativas significativas.
Los modelos de IA generativa utilizados para crear texto no son baratos de operar. Los modelos de lenguajes grandes (LLM) como los que impulsan ChatGPT requieren servidores potentes con chips de alta gama que consumen energía. Por ejemplo, recientemente citamos un informe de Reuters con un análisis que afirmaba que ejecutar cada consulta ChatGPT puede costar 4 centavos. Como resultado, Adam Selipsky, director ejecutivo de Amazon Web Services, dijo al Journal que muchos clientes corporativos están descontentos con los altos costos de funcionamiento de estos modelos de IA.
El desafío actual de los costos está ligado a la naturaleza de los cálculos de la IA, que a menudo requieren nuevos cálculos para cada consulta, a diferencia del software estándar que disfruta de economías de escala. Esto hace que los modelos de tarifa fija para los servicios de inteligencia artificial sean riesgosos, ya que el aumento del uso por parte de los clientes puede aumentar los costos operativos y provocar pérdidas potenciales para la empresa.
Algunas empresas están intentando reducir los costos, mientras que otras continúan invirtiendo más profundamente en la tecnología. Microsoft y Google han introducido actualizaciones más costosas respaldadas por IA en sus servicios de software existentes, mientras que, según se informa, Zoom intentó reducir costos utilizando a veces un modelo de IA interno menos complejo para algunas tareas. Adobe está abordando el problema con límites de actividad y cobros basados en el uso, mientras que Microsoft y Google suelen seguir con tarifas fijas.
El jefe de estrategia corporativa de Microsoft, Chris Young, cree que ver un retorno de las inversiones en IA llevará más tiempo a medida que la gente descubra las mejores formas de utilizarla. «Claramente estamos en un lugar donde ahora tenemos que traducir el entusiasmo y el nivel de interés en una verdadera adopción», dijo al medio.
En particular, el informe del WSJ afirma que GitHub Copilot de Microsoft, que ayuda a los desarrolladores de aplicaciones generando código, ha estado operando con pérdidas a pesar de atraer a más de 1,5 millones de usuarios e integrarse en casi la mitad de sus proyectos de codificación. Los usuarios pagan una tarifa fija de 10 dólares al mes por el servicio, pero el coste para Microsoft supera los 20 dólares al mes por usuario en promedio, según una persona familiarizada con el asunto. En algunos casos, los usuarios avanzados individuales le han costado a la empresa hasta 80 dólares al mes.
Una de las razones por las que los servicios de IA son tan costosos es que algunas empresas han estado recurriendo a los modelos de IA más potentes disponibles. Por ejemplo, Microsoft utiliza el LLM más complejo de OpenAI, GPT-4, para muchas de sus funciones de IA. GPT-4 se encuentra entre los modelos de IA más grandes y costosos de operar, y exige una potencia informática significativa. El WSJ bromeó diciendo que usar este modelo para tareas básicas como resumir un correo electrónico es como «hacer que un Lamborghini entregue una pizza», sugiriendo que usar los modelos de IA más capaces puede ser excesivo para tareas simples.
En esta línea, Microsoft ha estado explorando alternativas menos costosas para su asistente de búsqueda Bing Chat, incluido el modelo de lenguaje Llama 2 de Meta. Sin embargo, con el tiempo, debido a los avances en el hardware de aceleración de IA, es probable que los costos de operar estos modelos complejos disminuyan. No está claro si esos avances podrán llegar lo suficientemente pronto como para igualar el ciclo de exageración de este año sobre la IA.
Si bien todavía hay entusiasmo en el sector, el WSJ informa que podríamos estar cerca del pico antes de que se produzca una revisión de la realidad. Algunos expertos anticipan un enfoque financiero más estricto en el futuro cercano, destacó May Habib, directora ejecutiva de la firma de inteligencia artificial generativa Writer. quien le dijo al medio: «Creo que el año que viene será el año en que desaparecerá el fondo para sobornos para la IA generativa». Esto sugiere que pronto veremos cómo la industria pasa del entusiasmo y los presupuestos experimentales a una fase en la que la atención se centrará en si estos modelos de IA realmente pueden contribuir a la rentabilidad de la empresa.
Esta nota es parte de la red de Wepolis y fué publicada por California Corresponsal el 2023-10-11 11:20:20 en:
Link a la nota original
Palabras clave:
#Hasta #ahora #sido #rentable #para #las #grandes #tecnológicas #Latino #News
