Una ley pretende regular aplicaciones como ChatGPT en la Unión Europea. Pero aún queda mucho camino por recorrer. Bernd Riegert informa desde Bruselas.
Este 14 de junio, el Parlamento Europeo debatirá en Estrasburgo un borrador correspondiente a la ley de inteligencia artificial (IA). Durante una visita a Alemania, el director de la empresa californiana OpenAI, Sam Altman, que lanzó el muy discutido generador de texto ChatGPT, advirtió contra el exceso de regulación. Sin embargo, retiró su amenaza de dejar de operar ChatGPT en Europa.
En principio, crear reglas para la inteligencia artificial es bueno, según el director general de OpenAI, pero "necesitamos claridad". Altman es un hombre muy solicitado. Su palabra tiene peso en el área de la IA. Incluso ha sido recibido por el canciller alemán, Olaf Scholz, en Berlín.
Sin prohibiciones, solo estándares europeos
El mercado europeo sería demasiado atractivo para los proveedores de inteligencia artificial como para que lo ignoren. "Cualquiera que quiera vender su IA aquí debe cumplir con nuestros estándares”, dice René Reparsi, miembro del Parlamento Europeo, encargado del tema en la bancada socialdemócrata. El Congreso estadounidense también está tratando de promulgar reglas para esta tecnología de autoaprendizaje.
El eurodiputado asegura que también se mantiene en contacto con sus colegas de EE.UU. "Al final del día, queremos crear estándares significativos y no competir entre nosotros", dice Reparsi. Las empresas tecnológicas estadounidenses tienen mucho capital, enormes cantidades de datos y una supremacía única que quieren defender. Pero eso no significa que las reglas europeas impidan que las nuevas empresas de la UE desarrollen aún más la IA, opina Repasi: "El hecho de que tantos gigantes tecnológicos tengan su sede en EE.UU. tiene un poco más que ver con los mercados en los que operan los monopolistas que con la cuestión de dónde reside la mayor innovación".
Advertencias sobre la IA
Uno de los padres de la IA, el exempleado de Google Geoffrey Hinton, advirtió recientemente en entrevistas sobre los peligros de su propia creación. La IA generativa podría ser pronto más inteligente que los humanos que la crearon. Los cambios para el mercado laboral aún no son previsibles. Incluso los desarrolladores de los sistemas y los altos directivos de Microsoft o Google admiten que ya no saben exactamente cómo funcionan las aplicaciones con inteligencia artificial. En una carta abierta, investigadores y empresarios, incluido el propietario de Twitter, Elon Musk, sugirieron tomarse una pausa hasta fin de año para establecer límites en el desarrollo de la IA.
La UE está respondiendo con una nueva ley que ha estado en discusión durante dos años. En principio, prevé dividir las aplicaciones de IA en diferentes clases de riesgo. Se prohibirán los sistemas de alto riesgo que analizan y predicen de manera inaceptable el comportamiento social de las personas. Los sistemas de riesgo deben estar sujetos a reglas y límites. Las aplicaciones simples, y esto probablemente también incluiría a generadores de texto como ChatGPT, no deberían estar muy restringidas. Sin embargo, se deben marcar todos los servicios que se generan con IA.