ilustración de cirugía robótica

Cirugía robótica, la realidad supera la ficción

Tal vez más rápido de lo que se esperaba, la Inteligencia Artificial (IA) y la robótica son ahora protagonistas en la vida cotidiana. Estas tecnologías avanzan a pasos de gigante para convertirse en una realidad que está transformando radicalmente nuestra sociedad.

Gran parte de este vertiginoso auge obedece a que los algoritmos de IA son capaces de procesar enormes volúmenes de datos (Big Data) a altas velocidades, incluso cuánticas. Tanto así, que los sistemas de información basados en esta disciplina están entrenados para escribir literatura, poesía o realizar obras de arte con un nivel de inspiración y sensibilidad muy cercano al de ilustres humanistas y artistas, gracias a que se alimentan de un sinnúmero de escritos e imágenes de literatura universal digitalizados y disponibles en Internet.

Pero el impacto de la IA va mucho más allá de escribir poemas, crear una pintura o ser un asistente virtual, como el de los dispositivos móviles. La IA y la robótica también se han introducido en el campo de la medicina y son capaces de diagnosticar de manera temprana enfermedades o incluso de ser herramientas que apoyan la realización de una cirugía.

En Colombia, por ejemplo, en 2019 previo a la pandemia, se realizaron aproximadamente 500 cirugías con asistencias robóticas, siendo la rama de la urología donde más intervenciones se han realizado con este tipo de tecnología, indicó Juan Ignacio Caicedo, especialista en Urología Laparoscopia-Robótica de la Fundación Santa Fe de Bogotá, durante un curso de actualización en urología.

Ejemplo de esto, el sistema robótico y quirúrgico Da Vinci, desarrollado por la empresa norteamericana Intuitive Surgical y aprobado en el 2000 por la Administración de Alimentos y Medicamentos (FDA) de los Estados Unidos, ofrece a los especialistas mayor precisión durante los procedimientos quirúrgicos, mediante una consola de comando con la cual pueden dirigir los 4 brazos del robot; tres de ellos poseen instrumentos quirúrgicos y el otro (que contiene una cámara) les permite ver lo que está sucediendo a través de una señal de video.

ilustración de un médico mirando una tablet con un microchip

De esta forma, el profesional de la salud obtiene una visión panorámica con una amplificación de hasta 10 veces la zona intervenida; otorga una posición ergonómica que brinda mayor comodidad, mejor agarre de los instrumentos y, a su vez, es menos invasiva para el paciente. En cirugías apoyadas con estas tecnologías, como la prostatectomía radical (extirpación parcial o total de la próstata), se ha evidenciado una recuperación más rápida en los pacientes, reducción del sangrado postoperatorio y minimiza las complicaciones posteriores al procedimiento.

Y aún se puede ir más allá.

El proyecto de investigación, Towards Holistic Surgical Scene Understanding, del Centro de Investigación y Formación en Inteligencia Artificial (CinfonIA) de Los Andes, está desarrollando un modelo transformador llamado Tapir que analiza bases de datos creadas  a partir de videos grabados durante prostatectomías, realizadas por el doctor Caicedo y otros especialistas en la Fundación Santa Fe, usando el sistema quirúrgico Da Vinci, para que el robot reconozca, comprenda la anatomía humana y las diversas complejidades que se puedan presentar.

“Con los datos de estos videos hacemos un análisis holístico de todas las cirugías para determinar en qué fase quirúrgica se encuentra el procedimiento, qué instrumento se  utiliza y qué acciones realiza”, afirma Natalia Fernanda Valderrama, investigadora del proyecto.

De acuerdo con Paola Ruiz, investigadora de CinfonIA, en una primera fase se busca que el modelo de IA sea la guía que proporciona información adicional a lo que el médico observa y, por qué no en un futuro, que el robot se convierta en un ‘cirujano autónomo’ que actúa bajo la asistencia del especialista médico.

El artículo de CinfonIA fue uno de los  proyectos presentados en el 25th International Conference on Medical Image (Miccai 2022), realizado en Singapur. Esta propuesta innovadora fue la única proveniente de una universidad latinoamericana.


ilustración collage de educar en las diversas revoluciones industriales

Educar para trabajos que todavía no existen

Inteligencia Artificial

Educar para trabajos que todavía no existen

Las nuevas tecnologías y la industria se mueven de manera vertiginosa, ¿cómo le sigue el paso la educación para preparar a los profesionales del futuro?


Por Mauricio Laguna Cardozo

m.laguna20@uniandes.edu.co

Si usted ha intentado aprender un idioma en una plataforma como Duolingo, ya ha utilizado la Inteligencia Artificial (IA) para capacitarse. Esta plataforma toma información de unos 37 millones mensuales de usuarios en el mundo, con la que sus desarrolladores mejoran el contenido y a quienes la IA les permite detectar los errores más comunes y adaptar las lecciones a las necesidades de aprendizaje.

Pocas academias de idiomas en 2011, cuando fue lanzada la aplicación, pensaban que necesitarían un analista de datos o un programador para diseñar sus cursos. Las profesiones han cambiado y se han creado muchas otras, por lo que es un reto capacitar a la fuerza laboral.

Según el reporte de 2022 de Manpower Group,

3 de cada 4

empresas tienen escasez de personal.

Mientras el World Economic Forum reportó en 2020 que se crearían

97millones

de trabajos en el mundo enfocados en estas tecnologías.

Para 2025, las empresas calculan entrenar a

70%

de su personal para que se ajuste a los nuevos trabajos.

Con este panorama, ¿en qué tiene que cambiar la educación de los profesionales?


La revolución de las tecnologías

El mundo está en la llamada cuarta revolución industrial, la de la digitalización. Las anteriores fueron abanderadas igualmente por otras tecnologías: mecanización, electricidad e informática.  En este momento se habla incluso de una quinta, aunque para el experto Harold Castro, director ejecutivo de Transformación Digital, de la Universidad de los Andes, es todavía un ejercicio de futurología. Aunque dice que hay que estar atentos, porque una disrupción tecnológica que cambiaría la industria y a la sociedad de nuevo está cerca.

Castro insiste en la necesidad de que las universidades entiendan las competencias necesarias en un ciudadano de la cuarta revolución y así formarlo independientemente de lo que vaya a hacer; esté relacionado directamente con la tecnología o no. “Vamos a recibir a un estudiante al que graduaremos para un empleo que no existe todavía”.

Para Raquel Bernal, rectora de la Universidad de los Andes, las instituciones de enseñanza deben ser muy activas e innovadoras en este panorama: “Se estima que 60 millones de ocupaciones desaparecerán, pero, al mismo tiempo, cerca de 130 millones de nuevas oportunidades nacen. Algunas de esas no tenemos ni idea cuáles son y yo creo que nuestra tarea, desde un sitio que prepara el talento humano para salir al mundo, debemos inventarnos esas ocupaciones. ¿Qué es lo que se viene? Anticipar. 

Esos nuevos trabajos vendrán de la ciencia y esta necesita un estudio profundo. El Dr. John Baruch, del Departamento de Cibernética de la Universidad de Bradford (Inglaterra), en una charla TED decía que la educación debe desarrollar la innovación y la creatividad. “Lo que tenemos en este momento es que se dice a los estudiantes: escúchenme y vayan al examen y escriban lo que yo dije, y tendrán una buena nota. Eso es una tontería, es inútil, los robots son muchísimo mejores repitiendo lo que yo digo”.

La tecnología al servicio de la educación

La educación se puede beneficiar en tres aspectos de las nuevas tecnologías: el apoyo a los estudiantes, a los profesores y al sistema educativo. Gary Cifuentes, profesor de la Facultad de Educación de la Universidad de los Andes y doctor en Comunicación centrada en el ser humano e informática de la Universidad de Aalborg (Dinamarca), habla de algunos de esos soportes que puede dar una ciencia como la IA.

Por ejemplo, el learning analytics o análisis de aprendizaje recopila, mide y analiza la información sobre el proceso y avance de los alumnos. En el caso de la evaluación, que es una actividad rutinaria, la docencia ya la está utilizando.

Este tipo de análisis permite igualmente una retroalimentación personalizada, rápida y oportuna con la cual el estudiante responde y los algoritmos de inteligencia artificial van adaptando las preguntas a su nivel, como sucede en los video juegos.

“Si usted tiene un nivel de desempeño muy alto, pues usted no quiere que le sigan dando preguntas con el mismo nivel, usted quiere un nivel más alto de exigencia, porque lo puede lograr”, explica Cifuentes. Y en cuanto a los estudiantes con bajo desempeño, un sistema adaptativo le da “unas preguntas acordes a su nivel de esfuerzo, y muy importante, una retroalimentación oportuna sobre sus errores más frecuentes”, complenta.

En cuanto al campo administrativo, estas tecnologías también ayudan a predecir éxitos o fracasos. “Esos modelos predictivos permiten saber qué tan probable es que un estudiante pueda desertar, cómo podemos disminuir la mortalidad académica. En algunas universidades también se está utilizando para hacer seguimiento a su salud mental”, explica Cifuentes.

Estas ayudas en la educación ya se aplican en Latinoamérica y el reto, afirma, está en democratizarlas.

educar apoyados en la inteligencia artificial. microchip con fórmulas matemáticas

Educar para la revolución

Si estos cambios en la sociedad y en las profesiones llegan con las tecnologías y los avances en la industria, deberían las instituciones académicas estar alineadas con estas. Pero los expertos ven una brecha entre las universidades, los empresarios y los estudiantes.

Harold Castro llama la atención sobre los jóvenes que no quieren estudiar una carrera puntual y no quieren pasar cuatro años estudiando un programa específico, sino que apuntan a diferentes disciplinas. Además, algunos estudian un periodo, después trabajan y vuelven a estudiar. Para el doctor en Informática hay que ir acorde con esas dinámicas.

“Tenemos que pensar en que el rol de las universidades tal vez no es una formación donde ofrezco cuatro años y hasta luego, si no una formación donde doy ahora un poco y nos vemos más adelante. Usted sigue siendo estudiante”.

También ve la necesidad de valorar el conocimiento que el estudiante trae consigo. “Tengo que de alguna manera reconocer el aprendizaje que hizo conmigo, así no haya terminado, porque la persona necesita también empezar a tener cosas en el inmediato para empezar a moverse dentro del mundo laboral”.

Para la rectora Bernal es un reto que “exige de nosotros, pero prácticamente de todas las sociedades, una transformación y adaptación casi continua”, y donde las universidades son actores de primera línea. “Somos instituciones de conocimiento y ciencia. Entonces esta cuarta revolución y la quinta son las revoluciones industriales del conocimiento. Nosotros estamos llamados ahí”. 

Para Natalia Ariza, directora del Proyecto Instituto Tecnológico, de la Universidad de los Andes, también se debe cambiar el valor y reconocimiento que en Colombia tienen las carreras técnicas y tecnológicas.  Según la experta esto democratizaría la educación e incluso le permitiría acceder a personas que “vocacionalmente quieren ocupar y desarrollar trabajos técnicos de alto nivel, pero el sistema educativo no tiene esa oferta”.

Para Ariza, igualmente es indispensable cortar la brecha que hay con las empresas haciendo alianzas muy cercanas con ellas. Las corporaciones saben específicamente las habilidades del personal que necesitan y las universidades cómo dar el conocimiento y evaluar si el personal que ingresa está preparado.

Esa alianza también debe darse en el desarrollo de la tecnología, aprovechando otra de las vocaciones de las universidades como entes de investigación.

La pandemia aceleró la educación virtual y así mismo la capacidad de recolectar datos que alimenten las tecnologías como la IA. Las instituciones de educación superior se están transformando y deben hacerlo rápido a riesgo de ser sustituidas con las que nacen y tienen una semilla digital.

El profesor Gary Cifuentes ve el potencial en estas tecnologías para la educación, pero también advierte que hay que estar atentos a las implicaciones de estos desarrollos, porque pueden tomar el camino de modelos predictivos y segregacionistas, que lleguen a excluir a las personas que no arrojen resultados positivos para su futuro. “Ojalá la inteligencia artificial siga ese camino que nos permita una educación más inclusiva, diversa, donde haya múltiples formas de pensar y aprender”.


ilustración de manos abiertas y un cubo flotando con data representada en paquetes

Data, la base de todo

Inteligencia Artificial

Data, la base de todo

Existen 40 veces más bytes de datos que estrellas en el universo observable, según el informe Data Never Sleeps 7.0 (2019) de la firma de software DOMO. Los datos son un océano de infinitas posibilidades, al igual que de retos para quien quiera aprovecharlos.

¿Cómo podemos controlar algo de estas dimensiones?


Por Andrés Bahos Rodríguez

a.bahos@uniandes.edu.co

La data o datos en la informática son una representación simbólica ya sea numérica, alfabética o algorítmica, recibida por un ordenador y que las empresas pueden interpretar para buscar soluciones a diversos problemas o para ofrecer servicios. Para aclarar algunos términos conoce la familia de la data, que te dará definiciones claves para entender más de este tema.

Por ejemplo, a través de la gestión de datos se pueden obtener sistemas de georreferenciación por sensores, como lo hace Waze, que permite la navegación en las ciudades vía satélite. Explica la profesora Claudia Lucia Jiménez, coordinadora de la Maestría en Ingeniería de Información MINE, de la Universidad de los Andes, que la aplicación es un flujo de datos en tiempo real donde los usuarios son el centro de la información; nos convertimos en sensores de tráfico que notifican a otros qué vías de acceso tomar.

Otro ejemplo es el de Amazon, la multinacional de comercio electrónico captura los intereses e interacciones de la pantalla y realiza un seguimiento a las compras para sugerirle a los usuarios productos que sean afines a sus búsquedas, creando un ecosistema de compra.

Los datos son un activo de enorme valor, según La paradoja de los datos (2021), realizado por Dell Technologies Forum. El estudio muestra que 72 % de las empresas en Colombia recopila datos más rápido de lo que se pueden analizar y usar, es decir, existe una marea de información que no tiene interpretación, menciona la profesora Jiménez. Por eso es recomendable que las empresas e instituciones tengan una eficiente gestión de la información que recogen.

La ciencia de datos y la ingeniería de información necesitan conocimiento de matemática e ingeniería, explica Álvaro José Riascos, profesor de la Facultad de Economía, lo que ya es una pista de la capacidad de cómputo y experticia que necesitan los entendedores de la data. El matemático llama la atención sobre la producción de datos en el mundo, y señala que en los dos últimos años ha sido mayor que la de toda la historia de la humanidad, haciendo cada vez más real la ley de Moore: “cada dos años se duplica el número de transistores en un microprocesador”.

Los expertos nos comparten los pilares para entender e interpretar la data en la actualidad:

  1. La ciencia de datos es la búsqueda interdisciplinaria que busca a través de procesos tecnológicos integrados resolver preguntas para la toma de decisiones.
    Para cumplir esta búsqueda necesitamos: estadísticas modernas, los datos y la capacidad de cómputo y almacenamiento.
  2. Ingeniería de información recopila tecnologías, técnicas y metodologías de la ingeniería para construir soluciones que respondan efectivamente a los objetivos.
    Necesita software, infraestructura y datos.

El centro de estos dos pilares es la data, lo cual le da sentido y el recurso principal para que toda la tecnología sea aplicada, sin información no hay respuestas.

ilustración de cinta transportadora de data

Datos por todas partes

La finalidad de la data es encontrar múltiples respuestas a incógnitas, crear escenarios para ejecutar cambios que optimicen procesos en diversas industrias. Por ello las empresas deben estar preparadas a nivel técnico para recibir la información y, como lo menciona la profesora Jiménez, priorizarla entre lo útil y lo desechable.

De hecho, en computación es común el “Garbage in, garbage out”: si entran datos basura, eso mismo arrojarán.

Enrique Alejandro Ter Horst, Ph. D. en Estadística Bayesiana de la Universidad de Duke y profesor de la Facultad de Administración de Los Andes, tiene proyectos basados en datos y son un buen ejemplo de cómo aprovecharlos. Uno de estos es de experiencia sensorial, donde la música incide en las decisiones o detonantes de compra. Se trata de un modelo de machine learning que interpreta gestos y comportamientos para predecir el 95 % de las emociones. El investigador comenta que para aplicar los modelos de inteligencia artificial requirió data de grandes volúmenes (Big data), porque esta es la clave para aprender y tener mejores resultados.

Este tema trasciende a conversaciones del uso apropiado de los datos ¿Quién tiene el control? ¿Cómo usan los datos? ¿Cómo se comercializan los datos? Y otras preguntas que se han formulado países para gestionar el futuro de la información. Colombia tiene legislación que protege a los usuarios, un ejemplo son las resoluciones 0448 (2022) y 924 (2020) del Ministerio de Tecnologías de la Información y las Comunicaciones que buscan brindar seguridad, privacidad y tratamiento de datos de los usuarios colombianos.

Menciona Jiménez, experta en big data y pervasive computing, que existe una responsabilidad de educación en la ciencia de datos e ingeniería de la información, enfatizada en que las industrias deben aprender a tomar decisiones con algoritmos más inclusivos. Menciona ella que algunas ejecuciones de datos mantienen el sesgo personal de su creador, ejemplo de ello un estudio realizado por New York Times en China, que con ayuda del reconocimiento facial y mediante patrones de comportamiento se predecían posibles delincuentes antes de que actuaran. Frente a este caso, su precisión era de 50 % aproximadamente. “Funciona como un dado”, dice la profesora, no hay exactitud en el sistema porque no hay una construcción apropiada del código y su infraestructura.

McKinsey, consultora de tecnología e innovación, dice que para 2025 las empresas aprovecharán la data de forma cotidiana, por ello los ingenieros y expertos digitales, serán fundamentales para forjar el futuro de las nuevas tecnologías.

ilustración de la paradoja de la data: escaleras que suben y bajan

Para seguir conociendo la aplicación de la data en nuevas integraciones tecnológicas lee:


ilustración desde el interior de un carro autónomo que muestra diversas creaciones robóticas y de inteligencia artificial

Inteligencia Artificial: decisiones de vida o muerte

escena desde el interior de un carro autónomo que muestra creaciones robóticas y de IA
Inteligencia Artificial

Inteligencia Artificial: decisiones de vida o muerte

Aunque los desarrolladores siguen trabajando para que los vehículos autónomos sean más seguros y se disminuyan los accidentes mortales, es inevitable que los siniestros viales sigan ocurriendo en las vías. Por ejemplo, qué sucede si la inteligencia artificial (IA) debe escoger entre salvar la vida de un anciano o un niño, ¿de qué depende esta decisión?, son preguntas que un humano resolvería desde su criterio ético, por lo tanto, ¿cómo condicionar los actos de las máquinas inteligentes?


Por Paula Andrea Molano Rodríguez

p.molanor@uniandes.edu.co

No se pueden desconocer los beneficios que genera y las soluciones innovadoras que ofrece la IA, pero es clave aclarar que este desarrollo trae consigo retos y plantea problemas éticos que se han convertido en uno de los ejes de discusión filosófica en los últimos años.

El profesor de filosofía Andrés Páez, miembro del Centro de Investigación y Formación en Inteligencia Artificial (CinfonIA), de la Universidad de los Andes, resalta que unos de los problemas que requiere atención es la discriminación algorítmica producto de los estereotipos y prejuicios que hay en la sociedad. Es decir, cuando un sistema automatizado da un trato diferente y perjudica a un grupo de personas por su raza, sexo o religión, por ejemplo.

“Si el mundo tiene comportamientos discriminatorios o actitudes negativas hacia ciertas poblaciones, las máquinas aprenden de esa realidad y la replican. En algunos casos se convierten en una herramienta de reproducción de ese tipo de desigualdades”, comenta Páez.

El filósofo asegura que el reto seguirá siendo diseñar sistemas capaces de neutralizar los sesgos y estereotipos presentes en los datos que actualmente se usan para el funcionamiento de las innovaciones e insiste en que debe generarse un cambio estructural para combatir la desigualdad y exigirles a las compañías un desarrollo responsable.

Cuando innovar conlleva al dilema ético

En los estudios en torno a la filosofía del profesor Páez se ha identificado que, dependiendo de la aplicación de la inteligencia artificial, se puede juzgar los beneficios o perjuicios que genera. Para la medicina este desarrollo es un aliado en procesos de análisis de imágenes y pruebas, tratamientos, entre otros campos, sin embargo, desde la mirada ética se presentan discusiones alrededor de la confianza que producen los diagnósticos realizados por una máquina o por un especialista, puesto que las tasas de error aparentemente varían.

En otras situaciones, las voces de alerta también se encienden dado a que hay un potencial uso antiético, como en el uso de armas autónomas:

Una de las preocupaciones sobre estas armas son los accidentes a gran escala que pueden ocasionar, al no estar sujetas al control humano, ya que al actuar de manera inadecuada amenazan el derecho fundamental a la vida y el principio de la dignidad humana.

En Estados Unidos, Israel, Rusia y China se promueve este tipo de armamentismo para que sus ejércitos sean más eficientes y capaces de superar a sus adversarios en el campo de batalla. También, según el experto, buscan salvar la vida de sus soldados y disminuir costos, pero los riesgos pueden ser mayores.

“Hay una campaña muy fuerte para prohibirlas, así como se prohibieron las minas antipersonales, porque son armas que no son fiables y no se sabe a quién pueden matar […] definitivamente hay razones de tipo moral para pensar que hay ciertos tipos de tecnologías que nunca deben ser desarrolladas”.

ilustración desde el interior de un carro autónomo que muestra diversas creaciones robóticas y de inteligencia artificial
portada del libro Derecho de las tecnologías y las tecnologías para el derecho

Libro: Derecho de las tecnologías y las tecnologías para el derecho

Autora: María Lorena Flórez Rojas

El libro se destaca por tratar temas relacionados a los desarrollos tecnológicos y su aplicación y visión en Colombia. Por un lado, se abordan la cibercompetencias con las que deben contar los profesionales del derecho, jueces y legisladores. Por otro, también se tratan temas imprescindibles como la inteligencia artificial, esta vez enfocada en los mercados, el régimen de competencia, protección de datos y derecho del consumo. Finalmente, se discute sobre la tecnología aplicada a servicios financieros y modelos de negocio.

¿Qué regula la Inteligencia Artificial?

Colombia cuenta con un marco ético para la inteligencia artificial que acoge las recomendaciones de la Organización de las Naciones Unidas para la Educación (Unesco) sobre el uso responsable de estos desarrollos en el sector público y privado. Dichos principios se basan en transparencia, explicación, privacidad, control humano de las decisiones, seguridad, responsabilidad, no discriminación e inclusión.

Además de esta normativa ética, en la Constitución Política ya hay artículos que impactan el uso de la IA, “la Constitución colombiana envía mensajes de  libertad de empresa que tiene que ver con los emprendedores que desarrollan productos de inteligencia artificial,  pero también envía mensajes de  responsabilidad,  de protección de la vida humana, de los derechos del consumidor”, señala Nelson Remolina, doctor en Ciencias Jurídicas de la Pontificia Universidad Javeriana, director del Grupo de Estudios en Internet, Comercio electrónico, Telecomunicaciones e Informática (GECTI), de la Facultad de Derecho de la Universidad de los Andes.

Otro tipo de regulaciones como el Estatuto del Consumidor, que protege, promueve y garantiza la efectividad y el libre ejercicio de los derechos de los consumidores o la ley que protege a la propiedad intelectual, también aplican para la inteligencia artificial, según Remolina.

Sin embargo, una de las políticas que ampara a todos los actores que interactúan con esta tecnología es la Ley de protección de datos personales, la cual indica que las personas tienen derecho a conocer, actualizar y rectificar la información que se haya recogido sobre ellas en bases de datos o archivos de entidades públicas o privadas, esto teniendo en cuenta que los datos recolectados son la materia prima que alimentan los algoritmos.

Para ello, las compañías que capturan la información deben regirse bajo parámetros que eviten  efectos adversos en el funcionamiento de los sistemas, “Primero, la calidad de la información que va a procesar el algoritmo, segundo, el diseño del algoritmo para que no quede con sesgos y genere discriminación; y tercero, la transparencia y explicación del algoritmo, que el ser humano conozca claramente por qué se dio ese resultado, cuál fue la lógica que se usó en el tratamiento de esos datos”, explica el especialista en Derecho.

Pese a las normativas que regulan esta tecnología, parte de la opinión pública apoya la idea de crear una legislación diseñada específicamente para el uso de la IA, con el fin de enfrentar posibles riesgos inexistentes o engrandecer aquellos que ya están identificados.

Para el profesor Remolina, los temas tecnológicos no deben generar fascinación ni fobia, por el contrario, hay que seguir trabajando en estos desarrollos de manera responsable para potenciar sus beneficios a favor de la humanidad. Además señala que una regulación específica tiende a quedarse obsoleta debido a que la tecnología está en constante evolución: “Creo más en las regulaciones de principios que aplican a cualquier actividad al margen de tecnologías que conocemos ahora o en el futuro”.

Los expertos resaltan la importancia de educar a las personas a que sean responsables con la información que comparten y la forma como interactúan en el ciberespacio para evitar que sus derechos y los de la humanidad sean vulnerados. Incluso hacen un llamado a ser críticos con los sistemas de automatización, ya que esto permitirá crear una imagen equilibrada de sus beneficios y las zonas de riesgo a las que la sociedad civil debe poner resistencia.


IA, ilustración de una mujer y un robot frente a frente

IA: diez años de aprendizaje profundo

Inteligencia Artificial
mujer y robot mirándose con cerebro y microchip

IA: diez años de aprendizaje profundo

Pablo Arbeláez, director del Centro de Investigación y Formación en Inteligencia Artificial CinfonIA, de Los Andes, da un panorama actual de este campo. 


Por Pablo Arbeláez, director CinfonIA, UniAndes

cerebro y microchip intercambiando información

En la última década, la inteligencia artificial ha alcanzado un verdadero auge y ha pasado de ser un tema de ciencia ficción a permear todas las esferas de nuestra cotidianidad: interactuamos constantemente con sistemas inteligentes que interpretan nuestra voz, reconocen nuestro rostro, organizan las imágenes en nuestros teléfonos, ordenan los datos de internet de acuerdo con nuestros intereses y nos sugieren compras personalizadas.

La materialización reciente de estas hazañas tecnológicas, soñadas por la cultura popular desde la década de los 70, ha obedecido a tres factores clave: la disponibilidad pública de datos masivos en internet, el desarrollo de un tipo de hardware especializado llamado Graphic Processing Units (GPUs) y una comunidad de investigación global comprometida con la filosofía de código abierto.

Estos convergieron de manera decisiva hace exactamente diez años, el 12 de octubre de 2012, cuando el grupo de la Universidad de Toronto triunfó en la competencia internacional ImageNet, que consiste en clasificar automáticamente un millón de imágenes de Internet en mil categorías de objetos distintas, implementando a gran escala en GPUs unas técnicas llamadas de aprendizaje profundo y haciendo público el código fuente de su método. Este evento puntual fue el catalizador de la revolución actual en Inteligencia Artificial, pues las grandes empresas de tecnología entendieron inmediatamente el potencial del aprendizaje profundo para su negocio e iniciaron una verdadera carrera armamentista científica para dominarla y determinar su futuro.

Comenzó así un ciclo global de descomunales inversiones privadas y públicas en inteligencia artificial, acompañadas por el crecimiento exponencial en la disponibilidad de los datos y en la potencia del hardware. Rápidamente, empresas como Google y Facebook empezaron a basar sus productos en técnicas de aprendizaje profundo, haciéndolas cada vez más populares.

Esto ha favorecido la creación de una comunidad global de investigación cada vez más grande y diversa, lo cual acelera el desarrollo de nuevas metodologías y se traduce a su vez en nuevas aplicaciones prácticas y en mayores inversiones, cerrando así el círculo virtuoso que ha propulsado el progreso vertiginoso de la inteligencia artificial en los últimos años.

Los Modelos Funcionales

La última maravilla de la inteligencia artificial –y también la frontera más candente de la lucha global por la supremacía tecnológica–son los llamados Modelos Fundacionales, basados en métodos de aprendizaje profundo para comprensión de lenguaje natural ‘Transformers’, que se entrenan con un juego muy sencillo e intuitivo: la máquina debe aprender a completar las palabras faltantes en una frase. Por ejemplo, si la entrada es la frase “Muchos años después, frente al pelotón de X, el coronel Aureliano Buendía había de recordar aquella tarde remota en que su padre lo llevó a conocer el Y”, el modelo debe completar las palabras X y Y. Sin duda, la mayoría de los hispanohablantes podremos inmediatamente reemplazar X por “fusilamiento” y, quienes recordemos el célebre comienzo de Cien Años de Soledad, podremos reemplazar Y por la palabra “hielo”.

Los Modelos Fundacionales se entrenan con este juego con la totalidad del conocimiento humano almacenado en Internet y aprenden a llenar vacíos en todos los textos existentes de la historia de la humanidad. Además de eso, aprenden a asociar los textos con las imágenes y los videos que usualmente los acompañan en las páginas web. Estos modelos tienen miles de millones de parámetros libres y entrenarlos toma semanas enteras en los súper computadores más poderosos del mundo con un costo en energía de millones de dólares.

El resultado después de este entrenamiento titánico es sencillamente sorprendente. Los Modelos Fundacionales más recientes, que ya están siendo desplegados comercialmente, pueden escribir un texto corto sobre cualquier tema y en cualquier estilo literario con una competencia y coherencia comparables a las de expertos humanos, pueden traducir simultáneamente en decenas de idiomas con la fluidez de hablantes nativos y pueden generar imágenes realistas a partir de descripciones textuales. Sin embargo, quizá lo más sorprendente es que estas técnicas aún parecen estar lejos de alcanzar sus límites.

A medida que los Modelos Fundacionales incorporan más parámetros libres, tienen acceso a mayores cantidades y modalidades de datos de entrada y se entrenan en computadores más poderosos, obtienen un desempeño superior y pueden resolver tareas cada vez más complejas. Por ejemplo, una de sus aplicaciones más recientes e inesperadas es la predicción de la estructura en tres dimensiones para más de 600 millones de proteínas, lo cual revolucionará la industria farmacéutica en los próximos años.

El presente y el futuro de la IA


Evolución de la inteligencia artificial

La edad dorada para la inteligencia artificial de estos últimos diez años de aprendizaje profundo está transformando abismalmente nuestra sociedad. Sin duda, esta “cuarta revolución industrial” tendrá un efecto similar al de las tres anteriores y esta nueva tecnología, lejos de hacer a los humanos redundantes, se integrará a todos los oficios, creará nuevas ocupaciones y servicios y potenciará nuestra productividad.

Paulatinamente, surgirán asistentes inteligentes que, gracias a tecnologías de realidad aumentada, acceso a descomunales bases de datos e inmenso poder computacional, nos asesorarán en el aprendizaje y la ejecución de tareas profesionales y recreativas de manera a enfocar y a aprovechar la creatividad y la inteligencia natural que caracterizan a nuestra especie para las labores más críticas y estratégicas. Nuestro deber desde la academia es entonces preparar a las futuras generaciones para que, de manera transdisciplinar, los profesionales del futuro se familiaricen con estas técnicas desde ahora, entiendan su potencial específico en cada área, sus limitaciones y las implicaciones éticas de su despliegue en el mundo real.

Finalmente, si la cadencia actual del progreso de la inteligencia artificial se mantiene durante la próxima década, podemos concebir la creación de máquinas con capacidades intelectuales muy superiores a las de los seres humanos y quizás conscientes de su propia existencia. Entonces, como nos enseñan los maestros de la ciencia ficción, corremos el gran riesgo de que esas máquinas sean utilizadas para aniquilar a nuestra especie o para perpetuar el absolutismo.

Ambos riesgos son reales y ya han comenzado a manifestarse en la actualidad. Por un lado, las armas inteligentes como los drones de guerra tienen cada vez mayor capacidad para tomar decisiones autónomas en situaciones de combate. Por otro lado, en China, por ejemplo, los Modelos Fundacionales son utilizados hoy en día para analizar individualmente a cada uno de sus 1.400 millones de habitantes a partir de datos de ubicación, biográficos, de contactos, de historia de navegación, clínicos, bancarios e inclusive genéticos con el fin de eliminar preventivamente el crimen y las potenciales disidencias futuras a la ideología oficial.

Que estos u otros escenarios distópicos se conviertan en el futuro de la humanidad depende por supuesto de nuestras acciones presentes, pues debemos recordar que la inteligencia artificial es tan solo una herramienta más que ha ideado nuestro ingenio sin límites. Podemos compararla a la comprensión de las inmensas fuerzas que ligan las partículas subatómicas, uno de los grandes legados científicos del siglo XX y uno de los mayores riesgos actuales para nuestro planeta. La energía atómica puede obliterar un país en un instante o darle electricidad limpia por miles de años; es responsabilidad de nuestra civilización regular el uso de esta herramienta para que se traduzca en el bien colectivo. De la misma manera, es urgente diseñar un marco legislativo global para los usos militares de la Inteligencia Artificial y es responsabilidad de las sociedades libres y democráticas garantizar su aplicación ética y transparente para beneficio de nuestra especie, de nuestro entorno y de nuestro planeta.