sujetapapeles, loros y seguridad versus ética – Es de Latino News

sujetapapeles, loros y seguridad versus ética – Es de Latino News

Sam Altman, director ejecutivo y cofundador de OpenAI, habla durante una audiencia del Subcomité Judicial del Senado en Washington, DC, EE. sobre el futuro de las industrias creativas y la capacidad de diferenciar los hechos de la ficción.

eric lee | Alcalde Bloomberg | imágenes falsas

La semana pasada, el CEO de OpenAI, Sam Altman, cautivó a una sala llena de políticos en Washington, DC, durante la cena, luego testificó durante casi tres horas sobre los riesgos potenciales de la inteligencia artificial en una audiencia del Senado.

Después de la audiencia, resumió su posición sobre la regulación de la IA, utilizando términos que no son muy conocidos por el público en general.

“La seguridad de AGI es realmente importante y los modelos fronterizos deben ser regulados”, tuiteó Altman. “La captura regulatoria es mala, y no deberíamos meternos con los modelos por debajo del umbral”.

En este caso, “AGI” se refiere a “inteligencia general artificial”. Como concepto, se usa para referirse a una IA significativamente más avanzada de lo que es posible actualmente, una que puede hacer la mayoría de las cosas tan bien o mejor que la mayoría de los humanos, incluso mejorarse a sí misma.

Los “modelos fronterizos” son una forma de hablar sobre los sistemas de IA que son más costosos de producir y analizar la mayor cantidad de datos. Los modelos de lenguaje grande, como GPT-4 de OpenAI, son modelos de frontera, en comparación con los modelos de IA más pequeños que realizan tareas específicas como identificar gatos en fotos.

La mayoría de la gente está de acuerdo en que debe haber leyes que rijan la IA a medida que se acelera el ritmo de desarrollo.

“El aprendizaje automático, el aprendizaje profundo, en los últimos 10 años más o menos, se desarrolló muy rápidamente. Cuando salió ChatGPT, se desarrolló de una manera que nunca imaginamos, que podría ir tan rápido”, dijo My Thai, profesor de informática. en la Universidad de Florida. “Tememos que estamos corriendo hacia un sistema más poderoso que no entendemos completamente ni anticipamos lo que puede hacer”.

Pero el lenguaje en torno a este debate revela dos campos principales entre académicos, políticos y la industria tecnológica. Algunos están más preocupados por lo que llaman “Seguridad de IA.“El otro lado está preocupado por lo que llaman”Ética de la IA.«

Cuando Altman habló ante el Congreso, en su mayoría evitó la jerga, pero su tuit sugirió que está más preocupado por la seguridad de la IA, una postura compartida por muchos líderes de la industria en empresas como OpenAI dirigida por Altman, Google DeepMind y nuevas empresas. empresas bien capitalizadas. Les preocupa la posibilidad de construir un AGI hostil con poderes inimaginables. Este campo cree que necesitamos la atención urgente de los gobiernos para regular el desarrollo y prevenir un fin prematuro de la humanidad, un esfuerzo similar a la no proliferación nuclear.

“Es bueno escuchar a tantas personas que comienzan a tomarse en serio la seguridad de AGI”, dijo el fundador de DeepMind y actual director ejecutivo de Inflection AI, Mustafa Suleyman. tuiteó el viernes. “Tenemos que ser muy ambiciosos. El Proyecto Manhattan costó el 0,4% del PIB de EE.UU. Imagine lo que un programa de seguridad equivalente podría lograr hoy”.

Pero gran parte de la discusión en el Congreso y en la Casa Blanca sobre la regulación es a través de una lente de ética de IA, que se enfoca en los daños reales.

Desde esta perspectiva, los gobiernos deberían hacer cumplir la transparencia sobre cómo los sistemas de IA recopilan y usan datos, restringir su uso en áreas que están sujetas a leyes contra la discriminación, como la vivienda o el empleo, y explicar cómo la tecnología de IA actual se queda corta. La propuesta de la Declaración de Derechos de AI de la Casa Blanca a finales del año pasado incluía muchas de estas preocupaciones.

Este campo estuvo representado en la audiencia del Congreso por IBM La jefa de privacidad, Christina Montgomery, dijo a los legisladores que cree que todas las empresas que trabajan en estas tecnologías deberían tener un punto de contacto de “ética de IA”.

“Debe haber una guía clara sobre los usos finales de la IA o las categorías de actividad respaldada por la IA que son inherentemente de alto riesgo”, dijo Montgomery al Congreso.

Cómo entender la jerga de la IA como un experto

Ver también: Cómo hablar de IA como un experto

No en vano, el debate sobre la IA ha desarrollado su propia jerga. Comenzó como un campo académico técnico.

Gran parte del software que se discute hoy se basa en los llamados modelos de lenguaje grande (LLM), que utilizan unidades de procesamiento gráfico (GPU) para predecir oraciones, imágenes o música estadísticamente probables, un proceso llamado “inferencia”. Por supuesto, los modelos de IA deben construirse primero, en un proceso de análisis de datos llamado “entrenamiento”.

Pero otros términos, especialmente de los defensores de la seguridad de la IA, son de naturaleza más cultural y, a menudo, se refieren a referencias compartidas y bromas internas.

Por ejemplo, la gente de seguridad de AI podría decir que les preocupa convertirse en un clip de papel. Eso se refiere a un experimento mental popularizado por el filósofo Nick Bostrom que postula que una IA superpoderosa, una “superinteligencia”, podría tener la tarea de hacer tantos clips como sea posible y, lógicamente, decidir matar humanos para hacer clips con ellos. a ellos. . sus descansos

El logo de OpenAI está inspirado en esta historia, y la compañía incluso ha hecho clips con la forma de su logo.

Otro concepto en seguridad de IA es el “despegue duro” cualquiera “despegue rápidoque es una frase que sugiere que si alguien logra construir un AGI, ya será demasiado tarde para salvar a la humanidad.

A veces esta idea se describe en términos de una onomatopeya —»espuma“, especialmente entre los críticos del concepto.

“Es como si creyeras en el ridículo escenario de ‘foom’ de despegue duro, lo que hace que parezca que no tienes ningún conocimiento de cómo funciona todo”. tuiteó El jefe de Meta AI, Yann LeCun, quien se muestra escéptico ante las afirmaciones de AGI, en un debate reciente en las redes sociales.

La ética de la IA también tiene su propia jerga.

Al describir las limitaciones de los sistemas LLM actuales, que no pueden entender el significado sino que simplemente producen un lenguaje que suena humano, los especialistas en ética de la IA a menudo los comparan con “loros estocásticos.”

La analogía, acuñada por Emily Bender, Timnit Gebru, Angelina McMillan-Major y Margaret Mitchell en un artículo escrito mientras algunos de los autores estaban en Google, enfatiza que mientras los modelos sofisticados de IA pueden producir texto de aspecto realista, el software no puede. entiende los conceptos detrás del lenguaje, como un loro.

Cuando estos LLM inventan hechos incorrectos en las respuestas, son “alucinando.”

Un tema que Montgomery de IBM impulsó durante la audiencia fue “explicabilidad» en los resultados de IA. Eso significa que cuando los investigadores y los profesionales no pueden identificar los números exactos y la ruta de las operaciones que utilizan los modelos de IA más grandes para obtener su resultado, esto podría ocultar algunos sesgos inherentes en los LLM.

“Tienes que tener explicabilidad en torno al algoritmo”, dijo Adnan Masood, arquitecto de IA en UST-Global. “Anteriormente, si observas los algoritmos clásicos, dice: ‘¿Por qué estoy tomando esa decisión?’ Ahora, con un modelo más grande, se están convirtiendo en este gran modelo, son una caja negra”.

Otro término importante es “barandillasque abarca el software y las políticas que las empresas de Big Tech están construyendo actualmente en torno a los modelos de IA para garantizar que no filtren datos ni produzcan contenido perturbador, a menudo denominado “saliendo de los rieles.«

También puede referirse a aplicaciones específicas que protegen el software de IA para que no se desvíe del tema, como el producto “NeMo Guardrails” de Nvidia.

“Nuestra junta de ética de IA desempeña un papel fundamental en la supervisión de los procesos internos de gobierno de IA, creando barandillas razonables para garantizar que introduzcamos la tecnología en el mundo de manera responsable y segura”, dijo Montgomery esta semana.

En ocasiones estos términos pueden tener múltiples significados, como en el caso de “comportamiento emergente.”

Un artículo reciente de Microsoft Research llamado “Chispas de inteligencia general artificial” afirmó identificar varios “comportamientos emergentes” en GPT-4 de OpenAI, como la capacidad de dibujar animales usando un lenguaje de programación de gráficos.

Pero también puede describir lo que sucede cuando se realizan cambios simples a gran escala, como los patrones que hacen las aves cuando vuelan en bandadas o, en el caso de la IA, lo que sucede cuando millones de personas usan ChatGPT y productos similares, como Spam generalizado o información errónea.

Esta nota es parte de la red de Wepolis y fué publicada por Oliver Roberts el 2023-05-21 18:07:11 en:

Link a la nota original

Palabras clave:
#sujetapapeles #loros #seguridad #ética #Latino #News

About the author

Pretium lorem primis senectus habitasse lectus donec ultricies tortor adipiscing fusce morbi volutpat pellentesque consectetur risus molestie curae malesuada. Dignissim lacus convallis massa mauris enim mattis magnis senectus montes mollis phasellus.