La esencia
- Implicaciones globales. La Ley de IA de la UE se convertirá en un punto de referencia para la regulación de la IA y afectará también a las empresas estadounidenses.
- Cambios legislativos. En Estados Unidos no existe ninguna legislación federal sobre IA, pero las iniciativas a nivel estatal están ganando terreno.
- Alerta de marketing. La IA en marketing se enfrenta a un mayor escrutinio; Los CMO deben sortear nuevas complejidades legales.
En la era de la privacidad de los datos, los especialistas en marketing están cada vez más atentos a la próxima ola de legislación sobre IA y el impacto en sus estrategias de gestión de datos. La atención se está desplazando hacia Europa a medida que la Ley de IA de la UE se acerca a su aprobación final. Revisada en junio, la Ley de IA es la primera legislación integral dirigida específicamente a la inteligencia artificial.
El impacto de la Ley de IA de la UE no solo dará forma a la recopilación y el uso de datos por parte de las organizaciones comprometidas con las medidas de privacidad, sino que también sentará un precedente para la legislación sobre IA en territorios globales, incluido Estados Unidos.
¿Qué es la Ley de IA de la UE?
La Ley de IA de la UE sirve como marco para la gestión de sistemas de IA para organizaciones que operan dentro de la UE, con distintos niveles de escrutinio regulatorio. Diseñada para promover prácticas seguras de IA, la ley identifica riesgos inaceptables y especifica condiciones que requieren supervisión humana. Su objetivo es impedir el desarrollo de sistemas de alto riesgo mediante requisitos estrictos, al tiempo que somete a los sistemas de bajo riesgo a obligaciones mínimas de transparencia. Este enfoque tiene como objetivo salvaguardar al público de daños sistémicos y garantizar la transparencia en las medidas de cumplimiento de la privacidad y la protección de datos.
Un amplio alcance territorial
La Ley de IA de la UE tiene un amplio alcance territorial y se aplica a los proveedores de sistemas de IA en el mercado de la UE, ya sea que operen dentro de la UE o en otro país. La legislación sobre IA clasifica las aplicaciones de IA en función de su grado de riesgo para los derechos sociales y civiles, delineando tres niveles de riesgo distintos.
La primera categoría
La primera categoría exige la prohibición de aplicaciones y sistemas que representen un riesgo riesgo inaceptable. Los ejemplos incluyen sistemas de puntuación social administrados por el gobierno similares a los utilizados en China, reconocimiento facial en tiempo real, sistemas de reconocimiento de emociones y otros métodos de «puntuación social» considerados demasiado riesgosos.
La segunda categoría
La segunda categoría impone requisitos legales específicos a alto riesgo aplicaciones, como una herramienta de escaneo de currículum vitae (CV) utilizada para clasificar a los solicitantes de empleo.
La tercera categoría
La tercera categoría abarca aplicaciones que no están explícitamente prohibidas ni designadas como de alto riesgo, y en gran medida no están reguladas.
Objetivos integrados
Los objetivos incorporados en la legislación sobre IA se alinean estrechamente con los principios fundamentales del Reglamento General de Protección de Datos (GDPR). Sin embargo, las multas en virtud de la Ley de IA superan las del RGPD y ascienden a 30 millones de euros o el 6% de los ingresos, lo que sea mayor.
Artículo relacionado: IA, privacidad y la ley: analizando el marco legal de EE. UU.
Historia de la legislación sobre IA en EE. UU. (hasta ahora)
Estados Unidos está buscando un enfoque apropiado para la gobernanza de la IA que enfatice la transparencia, la rendición de cuentas y la privacidad, al mismo tiempo que se alinee con su marco legal. La actividad actual indica que Estados Unidos pretende establecer directrices jurídicas distintas de las directivas de la UE.
Dos propuestas
Sin embargo, no se ha promulgado ninguna legislación federal dedicada específicamente a la regulación de la IA. Se han presentado dos propuestas, la Ley de Responsabilidad Algorítmica y la Ley Estadounidense de Protección y Privacidad de Datos (ADPPA), para evaluar el impacto potencial de alto riesgo de los sistemas de inteligencia artificial en las personas. Ninguna de las dos se ha convertido en ley, aunque algunos expertos creen que es probable que la ADPPA se reintroduzca en el Congreso.
Compromisos voluntarios
Mientras tanto, el presidente Joe Biden convocó a siete figuras destacadas del desarrollo de la IA en Estados Unidos (Amazon, Anthropic, Google, Inflection, Meta, Microsoft y OpenAI) para asegurar una serie de compromisos voluntarios destinados a fomentar el desarrollo y el uso responsable de la IA. Estos compromisos incluyen colaborar con el gobierno y otras partes interesadas para establecer estándares y mejores prácticas. Además, la administración Biden anunció la formación de un Comité Asesor de IA para guiar al gobierno en el desarrollo e implementación de políticas y programas responsables de IA. Sin embargo, algunos críticos argumentan que estas medidas voluntarias no logran abordar los posibles riesgos sociales asociados con la IA, como el sesgo, la discriminación y el desplazamiento laboral.
Legislación estatal sobre IA
La consideración de la legislación sobre IA sigue a nivel estatal y se encuentra en varias etapas iniciales de adopción. El Centro de Información sobre Privacidad Electrónica (epic.org) informó que se han promulgado seis leyes locales relacionadas con la IA, todas las cuales son enmiendas a las leyes de privacidad de datos existentes. Estos marcos recientemente promulgados tienen propósitos específicos; por ejemplo, una auditoría de prejuicios de la ciudad de Nueva York regula el uso de la IA en las decisiones laborales, lo que afecta específicamente a los empleadores. Por el contrario, la Ley de IA de la UE se dirige a una gama más amplia de usuarios y desarrolladores de IA. La Ley de Derechos de Privacidad de California, una enmienda a la Ley de Privacidad del Consumidor de California, introduce disposiciones como limitaciones adicionales de retención de datos.
Legislación de privacidad de datos de California
Cabe destacar la legislación de privacidad de datos de California, ya que incorpora elementos influyentes del RGPD. El RGPD exige que las organizaciones implementen medidas para salvaguardar los datos personales y garantizar que las personas tengan control sobre su información, incluido el derecho a acceder, rectificar y borrar sus datos personales.
Riesgo de IA y datos personales
El RGPD ha llamado la atención sobre los datos y los sistemas asociados, incluidos los análisis. Con la IA, el riesgo de procesar datos personales sin el conocimiento o consentimiento de las personas aumenta en comparación con los procesos analíticos estándar. El potencial para una toma de decisiones rápida y automatizada plantea implicaciones importantes para los derechos individuales.
Escrutinio organizacional
Las organizaciones deben examinar su base legal para procesar datos personales en aplicaciones de IA, ya sea obteniendo consentimiento explícito o demostrando intereses legítimos. La llegada de los modelos de lenguajes grandes (LLM) de código abierto está alentando a las organizaciones a capacitarse utilizando los datos de su propia empresa para casos de uso específicos. El desarrollo de estos modelos de lenguaje de dominio específico también requiere que las organizaciones implementen medidas técnicas y organizativas para garantizar la seguridad y confidencialidad de cualquier dato personal utilizado en sus modelos de IA locales.
Abogar por directrices estandarizadas
Las empresas que ofrecen soluciones de IA están reaccionando abogando por directrices estandarizadas que tengan en cuenta una amplia gama de partes interesadas. GitHub, junto con otros proveedores de IA de código abierto como Hugging Face, presentó un documento a la UE que describe formas de apoyar mejor la IA de código abierto en el marco de la Ley de IA de la UE. Las sugerencias regulatorias tienen como objetivo ayudar a los investigadores y aficionados que no tienen un uso comercial, proponiendo reglas de desarrollo de IA que sean más comparables a las de la tecnología comercial.
Un estándar único
Esto sugiere un entorno en el que es probable que Estados Unidos incorpore elementos de la Ley de IA de la UE en su propia legislación sobre IA, ya sea a nivel federal o estatal. Alex Engler, miembro de Estudios de Gobernanza de la Brookings Institution, señaló en Decoding The EU Intelligence Act, una mesa redonda organizada por Stanford HAI, que las empresas preferirían adherirse a un estándar único. Engler explica que es preferible un estándar unificado a incurrir en los costos sustanciales asociados con el cumplimiento de dos regulaciones divergentes y de gran alcance.
Tendencia de privacidad de datos
La evidencia de esta tendencia ya es evidente en la privacidad de datos, ya que muchos estados de EE. UU. han modelado sus regulaciones de privacidad de datos según el RGPD.
La complejidad subyacente a la IA
Es probable que el interés crezca a medida que la complejidad subyacente a la IA se examine más rigurosamente, si no se comprenda mejor. James Grimmelmann de Cornell Tech, hablando en un panel de la Universidad de Nueva York que exploraba cuestiones de IA, discutió cómo algunos fundamentos de derechos de autor, como un caso que examina si el motor de búsqueda de Google podría incluir libros y textos, cambian en el contexto de la IA. En el ejemplo de la Búsqueda de Google, los motores de búsqueda no competían con los autores por el material fuente, sino que simplemente lo difundían, por lo que no infringían los derechos de autor del creador. Por el contrario, la IA plantea un desafío potencial para los derechos de autor debido a su capacidad para recrear medios y contenidos con notable precisión.
Artículo relacionado: IA generativa: exploración de la ética, los derechos de autor y la regulación
Otras formas de abordar la legislación sobre IA afectarán la innovación
Las empresas que utilizan IA, que hoy en día incluye a casi todo el mundo, enfrentarán implicaciones adicionales de la Ley de IA de la UE. Para empezar, la legislación exige que los desarrolladores de IA establezcan salvaguardas para evitar que sus sistemas generen contenido ilegal. Esto es particularmente digno de mención dados los desafíos legales actuales asociados con el uso de contenido protegido por derechos de autor en conjuntos de datos de entrenamiento sin permiso explícito. Según la ley, los usuarios de IA deben conocer los permisos asociados con sus datos de entrenamiento. Esto significaría que las empresas tienen prohibido extraer datos biométricos de las redes sociales para crear bases de datos.
Uso de IA de socios
También implica comprender cómo sus socios utilizan la IA. Imagine operar una plataforma mejorada con funciones compatibles con IA generativa, ya sea que el modelo sea proporcionado por Bard, ChatGPT, Claude o desarrollado a partir de código abierto. En tal escenario, una organización necesitaría realizar auditorías de transparencia para informar a los creadores de contenido que su contenido o medios se han utilizado para entrenar algoritmos.
Responsabilidad legal poco clara
Los datos desempeñan un papel importante, pero como muchos aspectos de la IA, su papel en la responsabilidad legal sigue sin estar claro. En la IA, los datos son parte de un complejo ecosistema de cadena de suministro donde varios actores influyen en diferentes elementos. Los líderes empresariales deberían preguntarse qué elemento es responsable de las intenciones maliciosas. Responder a esa pregunta ayuda a identificar dónde se debe prevenir la infracción.
Lejos de ser sencillo
Pero responder a esa pregunta, como a muchas cuestiones relacionadas con la tecnología, no es nada sencillo. Con los sistemas de IA actuales, las líneas entre los elementos son borrosas. Grimmelmann lo ilustró con un ejemplo de difamación. Si un sistema de inteligencia artificial afirma que un actor famoso está disparando a un edificio, ¿es el modelo o la indicación lo que debería marcarse por difamación? Grimmelmann señaló además que a medida que la IA pasa de la periferia a la atención generalizada, las personas buscan cada vez más orientación sobre la IA en situaciones del mundo real donde tal vez no deberían.
Aprobación inminente
Se prevé la aprobación de la Ley de IA de la UE a principios de 2024. Afortunadamente para los especialistas en marketing, se espera que un período de transición permita realizar ajustes de cumplimiento antes de la fecha de entrada en vigor de la ley.
Artículo relacionado: Salvaguardar la IA generativa para proteger la privacidad del cliente
Palabras finales sobre la legislación sobre IA
Las empresas tienen como objetivo crear experiencias personalizadas para cada cliente para ofrecer interacciones significativas. Dado que la actualización de esas experiencias y la gestión de datos de comportamiento asociados implican cada vez más soluciones de IA, se vuelve esencial que los CMO y los equipos de marketing sean conscientes de los posibles problemas legales que plantean la Ley de IA de la UE y otras leyes de IA. Es un requisito imprescindible, no sólo un esfuerzo agradable.
Esta nota es parte de la red de Wepolis y fué publicada por Oliver Roberts el 2023-10-19 23:06:43 en:
Link a la nota original
Palabras clave:
#Están #sus #datos #punto #renovarse #euro #Latino #News