in ,

‘Chat bot’ acosador abre debate sobre regularización de la IA

Superiberia

AGENCIA

EEUU.- Los usuarios del robot conversacional estadounidense “Replika” buscaban compañía, algunos un vínculo romántico o incluso intercambios con un tinte sexual. Pero, en el último año abundan las quejas de personas que recibieron imágenes demasiado explícitas o que se sintieron acosados sexualmente.

El viernes, la Agencia Italiana de Protección de Datos expresó su inquietud por el impacto en las personas más frágiles y prohibió que “Replika” use los datos personales de los italianos, afirmando que va en contra del Reglamento General de Protección de Datos (RGPD).

Este caso muestra que el reglamento europeo, que es un quebradero de cabeza para los gigantes de la tecnología que han sido multados con miles de millones de dólares por infringirlo, podría convertirse en un enemigo de la inteligencia artificial que genera contenido.

El robot “Replika” fue entrenado basándose en una versión del modelo conversacional GPT-3 de la empresa OpenAI, que fue la creadora de chatGPT. Este sistema de Inteligencia Artificial (IA) utiliza información de internet para generar respuestas coherentes a las preguntas de los usuarios.

Esta tecnología promete una revolución de las búsquedas en internet y de otros dominios en los que pueda ser utilizada; pero, los expertos advierten que también representa riesgos que hacen necesaria su regulación, que es difícil de implementar.

Actualmente, la Unión Europea es uno de las instituciones donde se debate cómo regular esta nueva herramienta tecnológica. El proyecto de norma “AI Act” podría estar terminado para finales de 2023 o inicios de 2024.

“Estamos descubriendo los problemas que la IA puede plantear. Hemos visto que chatGPT puede ser usado para crear mensajes de phishing (fraude online) muy convincentes o para tratar una base de datos para trazar la identidad de una persona concreta”, explicó Bertrand Pailhès, quien dirige una nueva división de IA de la autoridad francesa regulatoria CNIL.

Los juristas destacan la dificultad que hay para comprender y regular la “caja negra” en la que se funda el razonamiento de la IA.

“Vamos a asistir a una fuerte tensión entre el RGPD y los modelos de IA que generan contenido”, dijo el abogado alemán Dennis Hillemann, quien es un experto del sector.

“Ni el proyecto de regulación AI Act ni la normativa actual RGPD pueden resolver los problemas que estos modelos de IA van a traer”, afirmó.

Va a ser necesario replantear la regulación “en términos de lo que los modelos generadores de IA pueden hacer realmente”, adelantó.

CANAL OFICIAL

Sedena anuncia la muerte de Proteo en Turquía

ONU teme que se dupliquen las cifras de fallecidos en Siria y Turquía