El escritor es fundador de Sifted, un sitio respaldado por FT sobre nuevas empresas europeas.
La tecnología, dicen, se trata de convertir lo mágico en mundano. Hace una década, los asistentes digitales como Siri, Alexa y Cortana parecían inventos asombrosos. Hoy, el director ejecutivo de Microsoft, Satya Nadella, los descarta como “tontos como una roca”. ¿Qué tan rápido se volverán igualmente monótonos los tan publicitados modelos de IA generativa de hoy?
El martes, la firma de investigación OpenAI, con sede en San Francisco, lanzó GPT-4, su último modelo de generación de contenido, que demuestra ingeniosas características nuevas, como ayudar a calcular una declaración de impuestos. El lanzamiento de OpenAI de su increíblemente plausible, aunque inquietantemente defectuoso chatbot, ChatGPT en noviembre causó sensación. Pero en varias formas significativas, GPT-4 es aún más impresionante.
El nuevo modelo es más preciso y potente y tiene mayores capacidades de razonamiento. ChatGPT lucha por responder a la pregunta: ¿cómo se llama la hija de la madre de Laura? Pero, como el filósofo Luciano Floridi encontrado al experimentarel nuevo modelo GPT-4 da la respuesta correcta (Laura, en caso de que te lo estés preguntando) cuando se le dice que la pregunta es un acertijo lógico.
Además, GPT-4 es un modelo multimodal que combina texto e imágenes. En el evento de lanzamiento, Greg Brockman, cofundador de OpenAI, convirtió rápidamente una fotografía de una nota escrita a mano en un sitio web que contenía algunos chistes terribles sobre crianza. “¿Por qué los científicos no confían en los átomos?” preguntó GPT-4. “Porque ellos inventan todo”.
Las aplicaciones de estos modelos generativos de IA son aparentemente ilimitadas, lo que explica por qué los capitalistas de riesgo están invirtiendo dinero en el sector. Estos modelos también se están filtrando en todo tipo de servicios digitales existentes. Microsoft, un gran inversor en OpenAI, ha integrado GPT-4 en su motor de búsqueda Bing. La empresa de pagos Stripe lo está utilizando para ayudar a detectar fraudes en línea. Islandia incluso está utilizando GPT-4 para mejorar los chatbots en el idioma local. Eso seguramente vale la pena solo para preservar la hermosa palabra islandesa para computadora: tölva, que significa número de profetisa.
Las grandes empresas, como Microsoft y Google, serán las primeras en implementar estos sistemas a escala. Pero algunas nuevas empresas ven oportunidades en armar a los batallones más pequeños. Josh Browder, que dirige la firma de roboabogados DoNotPay, que desafía las multas de estacionamiento, dice que GPT-4 será una herramienta nueva y poderosa para ayudar a los usuarios a contrarrestar los sistemas automatizados. Su empresa ya está trabajando para integrarlo en una aplicación para emitir demandas con un solo clic contra llamadas automáticas no deseadas. La tecnología también podría usarse para disputar facturas médicas o cancelar suscripciones. “Mi objetivo es devolverle el poder a la gente”, me dice Browder.
Sin embargo, junto con los usos positivos de la IA generativa, existen muchos abusos menos visibles. Los humanos son susceptibles al llamado efecto Eliza, o atribuir falsamente pensamientos y emociones humanos a un sistema informático. Esta puede ser una forma efectiva de manipular a las personas, advierte Margaret Mitchell, investigadora de la empresa Hugging Face AI.
Los sistemas de aprendizaje automático, que pueden sintetizar voces y generar correos electrónicos personalizados falsos, ya han contribuido a un aumento de las estafas de impostores en EE. UU. El año pasado, la Comisión Federal de Comercio registró 36,000 informes de personas estafadas por delincuentes. haciéndose pasar por amigos o parientes. También se pueden utilizar para generar información errónea. Tal vez sea revelador que los reguladores en China hayan dado instrucciones a sus empresas de tecnología para que no ofrezcan los servicios de ChatGPT, aparentemente por temor a perder el control sobre los flujos de información.
Mucho sigue siendo un misterio sobre los modelos de OpenAI. La empresa acepta que GPT-4 exhibe sesgos sociales y alucina hechos. Pero la compañía dice que pasó seis meses probando la seguridad del GPT-4 y ha introducido barandillas a través de un proceso conocido como aprendizaje de refuerzo a partir de la retroalimentación humana. “No es perfecto”, dijo Brockman en el lanzamiento. Pero tú tampoco.
Furiosas disputas sobre la formación de estos modelos parecen inevitables. Un investigador ha estado probando periódicamente ChatGPT en busca de “sesgo” incitándolo a responder preguntas de orientación política. Inicialmente, ChatGPT cayó en el cuadrante libertario de izquierda, pero desde entonces se movió hacia el centro neutral a medida que se modificó el modelo. Pero, en una publicación en línea, el investigador de IA David Rozado argumenta que será difícil eliminar los prejuicios sociales generalizados y los puntos ciegos reflejados en Internet. “Los sesgos políticos en los sistemas de inteligencia artificial de próxima generación no van a desaparecer”, concluye.
Elon Musk, uno de los fundadores de OpenAI que luego renunció a la empresa, ha criticado repetidamente que “IA despertó” y está explorando si lanzar un modelo menos restrictivo, según The Information. “Lo que necesitamos es TruthGPT”, tuiteó. Tales disputas sobre prejuicios son solo un anticipo de peleas mucho más grandes por venir.
Esta nota es parte de la red de Wepolis y fué publicada por Corresponsal Europa News el 2023-03-16 14:48:49 en:
Link a la nota original
Palabras clave:
#GPT4 #tan #asombroso #como #desconcertante #Latino #News