Aunque la inteligencia artificial (IA) está entre nosotros, persiste el miedo a utilizarla de manera generalizada ante su desconocimiento, si bien tiene beneficios para facilitarnos múltiples actividades, también implica riesgos que debemos considerar porque incluso se puede faltar a la ética o cometer delitos, expresó Izumy Romero Yumbe, ingeniera en sistemas computacionales de Oracle Academy.
Invitada al Seminario Permanente de Derecho e Inteligencia Artificial que organizaron de manera conjunta el Instituto de Investigaciones Jurídicas y la Dirección General de Cómputo y de Tecnologías de Información y Comunicación de la UNAM, señaló: “La IA son máquinas que parecen comportarse de manera inteligente, pero que en realidad utilizan enormes cantidades de datos organizados y algoritmos para imitar patrones del pensamiento humano”.
La especialista recomendó adentrarse en su conocimiento como usuarios y usarla con cautela, toda vez que es una herramienta que, dentro de aproximadamente diez años, estará completamente inmersa en nuestras vidas. Sin embargo, es conveniente cuestionarse si las máquinas pueden hacer lo que nosotros logramos como entidades pensantes, sugirió.
En cuestiones como creatividad, originalidad y nuestro “sello personal” en documentos, fotografías y audios pueden descubrirse alteraciones en caso de plagio si se pone suficiente atención y se toman medidas como proteger el material original con códigos y sellos de agua, expuso.
Durante la conferencia híbrida “Inteligencia artificial: desafíos para desarrolladores, emprendedores y usuarios”, ofrecida en el aula Centenario del IIJ, la ingeniera agregó que esta tecnología se basa en la imitación, utiliza software de predicción inteligente que no copian exactamente el comportamiento humano, pero demuestran aptitudes de aprendizaje en un área.
Al precisar que las computadoras son una gran cantidad de poder de procesamiento dio a conocer algunas de las categorías de esta tecnología como son: Weak AI (IA débil) la cual realiza una tarea única o limitada probablemente más rápido que la mente humana, pero que no se puede desempeñar fuera de su área definida.
Reactive Machine AI (IA reactiva) funciona sin memoria y está diseñada para realizar una tarea específica. No recuerda resultados o decisiones anteriores, solo trabaja con datos actualmente disponibles, y responde de manera específica a estímulos predefinidos.
Limited Memory AI (IA de memoria limitada) puede recordar eventos y resultados pasados, datos disponibles por un periodo específico. No existe una biblioteca de experiencias disponibles en un periodo prolongado, utiliza datos actuales y es capaz de mejorar su rendimiento a medida que se entrena con más datos a lo largo del tiempo.
Mientras que Strong AI (IA fuerte) es capaz de realizar aprendizaje y realización de cualquier tarea intelectual que un humano puede llevar a cabo, Theory of Mind AI (IA de teoría de la mente) logra comprensión de pensamientos y emociones, simula relaciones humanas y puede comprender y contextualizar obras de arte.
Superintelligence (superinteligencia) produce procesos de pensamiento, raciocinio, puede emitir juicios y tiene capacidades cognitivas. Comprende sentimientos, experiencias humanas emocionales, necesidades, creencias y deseos propios, en tanto que Self-aware AI (IA consciente de sí misma) posee la habilidad para entender sus condiciones, rasgos internos, emociones y pensamientos humanos (emociones, necesidades y creencias).
Romero Yumbe precisó que, actualmente, el desarrollo tecnológico se ubica en la IA Reactiva y en la de Memoria Limitada (los primeros niveles), pues las demás están en progreso.
Por lo pronto, alertó tener cuidado de la información e imágenes que se manejan en las redes sociales, pues han circulado -como verdaderas- fotografías falsas generadas mediante IA, por ejemplo la detención de Donald Trump o una erupción del volcán Popocatépetl.
Para evitar la violencia digital, la ingeniera en sistemas computacionales se pronunció a favor de concientizar a la población para modificar comportamientos en internet; los desarrolladores deben recurrir al bloqueo de imágenes de víctimas conocidas y restringir palabras clave.
Además, la impresión de un código en imágenes generado por IA que vincule a los creadores con sus contenidos; los estudiantes deben evitar usar información personal sin consentimiento del autor original, así como los plagios y citar las fuentes bibliográficas en sus documentos.
Quizá se tendrá que regular jurídicamente el uso de la voz, pues ha sido manipulada la de actores de doblaje sin su autorización, o de locutores que han muerto, puntualizó.