En este momento estás viendo Límites éticos y legales de la IA. Por el Dr. Martín Elizalde

Límites éticos y legales de la IA. Por el Dr. Martín Elizalde

  • Autor de la entrada:
  • Categoría de la entrada:Seguros
  • Comentarios de la entrada:Sin comentarios

Por el Lic. Anibal Cejas

Para RPNEWS

El Seguro y la Prevención dialogó sobre la Inteligencia Artificial con Martín Elizalde, Co- Fundador y Director de Forecenic.

Martín Elizalde, especialista en seguridad informática y fundador y socio de Foresenics, comenzó enmarcando el concepto de inteligencia artificial. En un sentido básico, la definió como un conjunto de herramientas que procesan información. Al traducir dicha información a algoritmos, se llega a un proceso de verificación de identidades o de predicción de conductas.

“Hay un cambio de paradigma. De ‘la información es poder’, a ‘la capacidad de procesar información y sacar conclusiones es poder’”, remarcó. A partir de ello, abordó la cuestión de los riesgos en el uso de la IA, donde identificó una doble problemática: una de orden ético, y una de orden legal.

“Los datos están en una base de datos, y el titular de los datos ha permitido un tratamiento de la información. El tema es el límite entre lo que permitió y lo que ocurre sin su consentimiento”, explicó.

“¿Qué pasa con la privacidad, con la titularidad del dato, con su migración, con la seguridad en su migración? Más allá de lo ético, colisiona con la ley de protección de datos personales y con la normativa internacional aplicable al país”, expuso.

Algunos plantean no continuar con la inteligencia artificial hasta resolver los temas legales.

Sin embargo, Elizalde opinó que es tarde: “Hay sectores, módulos, de inteligencia artificial, que se autogeneran y/o autorregulan. A esta altura, es como decir ‘no voy a usar un auto hasta que su impacto esté completamente analizado. Pero el auto ya está”, graficó. Y prosiguió: “Lo correcto es ir solucionando las condiciones, desde el punto de vista ético y legal”.

En ese sentido, sugirió cambiar la aproximación al tema. No como un problema, sino como una cuestión de la realidad a trabajar. Y antes de buscar soluciones, hacer preguntas.

Una de estas preguntas es sobre la regulación. El especialista hizo referencia a la de Europa, que divide los riesgos de la IA en cuatro categorías y, según la gravedad, excluye o disminuye su uso.

En cuanto a América Latina, aseguró que hay una regulación por parte de la UNESCO, aunque la tendencia de la región es adaptar la europea.

Por su parte, Argentina tiene una normativa sobre IA desde la perspectiva educacional, pero que no constituye una regulación sustancial, equivalente a la ley de protección de datos personales.

En este punto, Elizalde planteó dos preguntas esenciales, que conjugan lo ético y lo legal.

“¿Para qué la queremos usar? Si es para mejorar negocios, bien. Pero si la queremos utilizar para influenciar una política contraria a algunos valores comunes… no estamos tan bien.

Entonces, ¿cuál es la intencionalidad?”, reflexionó.

Y prosiguió: “La otra cuestión es su robustez tecnológica.

Los algoritmos siguen equivocándose. Y aunque se habla de un 4.3% en algunas plataformas, para quien entra dentro de ese porcentaje, esa equivocación comprende su 100%”. Intencionalidad, y solidez de los algoritmos, son los puntos claves para pensar una regulación.

Acceda a la entrevista completa en este link:
https://www.youtube.com/watch?v=FwiC7Js1cv0

Por el Lic. Anibal Cejas

Deja una respuesta