El pasado 6 de Julio de 2023, ante la Asamblea Nacional de Panamá, la comisión de Educación, Cultura y Deportes presentó la propuesta del anteproyecto de Ley 014 “Que regula la Inteligencia Artificial en la República”, si bien es cierto el objeto de la ley es regular el uso, desarrollo y aplicación de la inteligencia artificial en el territorio de la República de Panamá y tiene como fin garantizar la protección de los derechos humanos, la seguridad y la privacidad de las personas, así como fomentar la innovación y el desarrollo tecnológico, la misma carece de muchos elementos.
El tema de la Inteligencia Artificial es un tema que no es reciente, sin embargo, dado el boom de las nuevas aplicaciones que están a actualmente a nuestro alcance, el interés por la regulación de la misma ha incrementado.
Este año la Unión Europea (UE) ha acordado que el uso de la inteligencia artificial en la UE estaría regulado por la Ley de Inteligencia Artificial, que sería la primera ley integral sobre IA del mundo.
La prioridad del Parlamento Europeo es garantizar que los sistemas de IA utilizados en la UE sean seguros, transparentes, trazables, no discriminatorios y respetuosos con el medio ambiente. Los sistemas de IA deben ser supervisados por personas, en lugar de por la automatización, para evitar resultados perjudiciales.
La nueva normativa establece obligaciones para proveedores y usuarios en función del nivel de riesgo de la IA. Aunque muchos sistemas de IA plantean un riesgo mínimo, es necesario evaluarlos todos.
Evaluando el borrador del Anteproyecto de Ley de Panamá es parecida en cuanto a los principios abordados y el espíritu de protección para y hacía las personas; no se ha contemplado aún el tema de la protección hacia la misma Inteligencia Artificial, si bien no son humanos propiamente, queda siempre la interrogante de que es un “ente” pensante. Como son los casos evaluados en Estados Unidos de ciertas universidades que, si bien los escritos no son plagios ni copias, son realizados por Inteligencias Artificiales, sin embargo, presentados por estudiantes; en este caso hay un vacío jurídico de quien se le da la autoría de los escritos.
Una ley para la regulación de Inteligencia Artificial debe ser pensada a futuro, no solamente en mente la tecnología actual.
Se debe evaluar el riesgo y los diferentes tipos de Inteligencias Artificiales que pueden llegar a existir, estamos hablando no solamente del uso de las mismas, pero el desarrollo de ellas en nuestro suelo panameño. El hecho que actualmente no se ha creado una inteligencia artificial panameña no indica que la misma no pueda ser creada a futuro.
En cuanto a la inversión que se deba realizar para que se cree un organismo que sea el encargado de supervisar y regular la ley, indicaría que es tiempo que se entregue un buen presupuesto a SENACYT o inclusive darle un rango de Autoridad, si bien quien regula este marco tecnológico hasta el momento ha sido ANTAI sería factible que sea regulado por una entidad que sepa de tecnología y ciencia.
Aceptar el cambio y aventurarse en él es positivo, y Panamá debería considerar la importancia de contar con una normativa adecuada si desea competir con otros países. Sería beneficioso evitar la presentación de un anteproyecto que pueda ser considerado mediocre, como ha sucedido con algunas leyes habituales en este país y se estudie profundamente adecuaciones al anteproyecto presentado.
Podemos evaluar varias opciones que pueden servir como ejemplo tal es el caso la del Parlamento Europeo que de igual manera se mantiene en discusión para su implementación, puntos tales como el riesgo a evaluarse, actualmente la iniciativa de ley presentada no indica los niveles de riesgos que la misma con lleva y lo mitiga de una forma general, sin embargo, el ejemplo de la iniciativa del parlamento europeo como veremos a continuación debería de ser tomada en consideración para la redacción de nuestra ley de inteligencia artificial.
La Comisión del Parlamento Europeo propone establecer 4 categorías de riesgo para las tecnologías de IA:
- Riesgo inaceptable: estos sistemas estarán prohibidos.
- Alto riesgo: Tendrán obligaciones estrictas, como supervisión humana y el uso de datos de alta calidad para evitar la discriminación.
- Riesgo mínimo: estos son la mayoría de ellas y serán de uso libre.
- Riesgo limitado: los ciudadanos deben ser conscientes de que interactúan con una IA.
1. Riesgo Inaceptable
Los de riesgo inaceptable son los que se consideran una amenaza para las personas y serán prohibidos. Estos pueden incluir:
- Manipulación cognitiva del comportamiento de personas o grupos vulnerables específicos: por ejemplo, juguetes activados por voz que fomentan comportamientos peligrosos en los niños
- Puntuación social: clasificación de personas en función de su comportamiento, estatus socioeconómico o características personales
- Sistemas de identificación biométrica en tiempo real y a distancia, como el reconocimiento facial.
Algunas excepciones se dan para que se tome esta calificación; por ejemplo, los sistemas de identificación biométrica a distancia «a posteriori», en los que la identificación se produce tras un retraso significativo, se permitirán para perseguir delitos graves y sólo cuando haya previa aprobación judicial.
2. Alto riesgo
Los sistemas de IA que afecten negativamente a la seguridad o a los derechos fundamentales se considerarán de alto riesgo y se dividirán en dos categorías.
- Los sistemas de IA que se utilicen en productos sujetos a la legislación de la Unión Europea sobre seguridad de los productos. Esto incluye juguetes, aviación, automóviles, dispositivos médicos y ascensores.
- Los sistemas de IA pertenecientes a ocho ámbitos específicos que deberán registrarse en una base de datos de la Unión Europea:
- Identificación biométrica y categorización de personas físicas
- Gestión y explotación de infraestructuras críticas.
- Educación y formación profesional.
- Empleo, gestión de trabajadores y acceso al autoempleo.
- Acceso y disfrute de servicios privados esenciales y servicios y prestaciones públicas.
- Aplicación de la ley.
- Gestión de la migración, el asilo y el control de fronteras.
- Asistencia en la interpretación jurídica y aplicación de la ley.
Todos los sistemas de IA de alto riesgo serán evaluados antes de su comercialización y a lo largo de su ciclo de vida.
3. Riesgo Mínimo – Entre ellas las inteligencias artificiales generativa.
Estas son una rama de la inteligencia artificial que se enfoca en la generación de contenido original a partir de datos existentes. Esta tecnología utiliza algoritmos y redes neuronales avanzadas para aprender de textos e imágenes, y luego generar contenido nuevo y único; ejemplos de estas son ChatGPT, Hubspot, GPT-3, Dall-E, Nvidia Gaugan, MusicLM tendría que cumplir requisitos de transparencia:
- Revelar que el contenido ha sido generado por IA.
- Diseñar el modelo para evitar que genere contenidos ilegales.
- Publicar resúmenes de los datos protegidos por derechos de autor utilizados para el entrenamiento.
4. Riesgo limitado
Los sistemas de IA de riesgo limitado deben cumplir unos requisitos mínimos de transparencia que permitan a los usuarios tomar decisiones con conocimiento de causa. Tras interactuar con las aplicaciones, el usuario puede decidir si desea seguir utilizándolas. Los usuarios deben ser conscientes de cuándo están interactuando con la IA. Esto incluye los sistemas de IA que generan o manipulan contenidos de imagen, audio o vídeo (por ejemplo, deepfakes).
Vemos entonces la complejidad de una ley de inteligencia artificial, que debe contener como mencionado anteriormente miras hacia el futuro del país y a nivel global en cuanto al desarrollo de las mismas.