Actualidad/OPINIÓN/TECNOLOGÍA HOY

Néstor Flores Araujo: Los desafíos de la inteligencia artificial

El tema de los avances de las tecnologías nos ha fascinado durante años y ya en anterior oportunidad he hablado de ello, ya que muchas de las cosas que estamos acostumbrados hacer, ya no serian iguales y mas cuando estos desarrollos de sistemas inteligentes que logren pensar igual al hombre aunque claro debemos ser cociente que tales avances pueden ser un desafío un poco riesgoso a lo que podríamos llamar la inteligencia artificial. 

Es así que pese a los distintos desarrollo no podemos negar que es un tema un poco preocupante ya que para algunos se a convertido en un Debate. Frente al avance sostenido de las máquinas, ¿podemos de verdad temer “el fin de la especie humana”, como alerta el físico Stephen Hawking? Divertidos por los trending topics , hemos dejado de interesarnos por lo que está realmente sucediendo, además Nicholas Carr lo denunció en Superficiales. ¿Qué está haciendo Internet con nuestras mentes? (Taurus, 2011). El efímero oleaje oculta el mar de fondo, porque nuestro futuro se está diseñando en laboratorios, universidades, centros de investigación y en empresas innovadoras.

Pero sin darnos cuentas cada día estamos pendientes del móvil instantáneo, creyendo que así estamos a la última, donde es tal lo conectado que la mayoría esta que corren el riesgo de no enterarse de lo que sucede hasta que no lo vemos ya sean sucesos, desarrollos o cualquier otro articulo que vimos primero por las redes sociales y luego corren a ver si ya están en la vidriera de un gran almacén.

Este artículo trata de una de esas corrientes profundas que están determinando futuro, sin que seamos conscientes de ello, me refiero a los avances en la Inteligencia Artificial (IA), un auge que desde hace ya unos años hasta nuestros días está provocando alarmantes teorías donde destacaron las del físico y científico, Stephen Hawking, que pensaba que su triunfo puede significar “el fin de la especie humana”, así como Elon Musk, creador de PayPal, Tesla y otras empresas de alta tecnología, donde dijo en una conferencia en el MIT que con la inteligencia artificial es como si fuese una especie de “summoning the demon ”, invocando al diablo, tambien Bill Gates ha afirmado que la gente debería ser consciente de los riesgos que esta representa donde grandes compañías han lanzado la iniciativa OpenAI para intentar que estos cambios, que consideran inevitables, se den dentro de un entorno democrático, aunque claro esta cuentan con un presupuesto inicial de mil millones de dólares, lo que no es mal modo de empezar.

Otros autores, como Ray Kurzweil, auguran que en el año 2040 emergerá la singularidad, una nueva especie producida por la fusión del ser humano con la tecnología. Kurzweil no es un escritor de novelas de ciencia ficción, sino el director de investigaciones de Google, la cual se ha convertido en todo un peso pesado, además cada vez se habla más de transhumanismo. Luc Ferry, un conocido intelectual francés, exministro de educación, acaba de publicar un voluminoso libro con ese título. “El núcleo del transhumanismo”. el cual es la “ampliación de la naturaleza humana” en su aspecto biológico y su aspecto intelectual, donde la Inteligencia Artificial es la gran protagonista.

Hemos entrado en la era de los algoritmos perfectos, un algoritmo es una fórmula exacta que dirige los procesos que resuelvan problemas, los cuales llegan a ser mecanismos necesarios para conseguir automáticamente un objetivo, los que hacen, por ejemplo, que funcionen las aplicaciones de un teléfono móvil. Esperamos que sean capaces de resolver todos nuestros problemas, así como lo ha señalado Evgeny Morozov en su combativo libro “La locura del solucionismo tecnológico” (Katz, 2015), aspiramos a vivir de soluciones recibidas, que nos eviten tener que pensar en ellas y de hacerlo se encargará la Inteligencia Artificial, la cual no radicará fundamentalmente en nuestras cabezas, sino en el gigantesco sistema al que estaremos conectados, claro esta son algunas meras especulaciones o teorías a las que posiblemente ocurriría.

El problema se plantea, sobre todo, cuando los sistemas de Inteligencia Artificial no se limitan a manejar datos, sino que toman decisiones, ahora bien si recordamos lo que ocurrió el 6 de mayo del 2010 en la bolsa de Nueva York sufrió lo que se denomina flash crash . Las cotizaciones habían caído por la mañana un cuatro por ciento, por la preocupación sobre la deuda europea. A las 2.32 de la tarde, se puso en marcha el algoritmo de venta de una gran institución, para deshacerse de un gran número de contratos de futuro vendiéndolos a un ritmo controlado minuto a minuto por la liquidez de la bolsa.

Esos futuros fueron comprados por compradores algorítmicos de alta frecuencia, programados para vendérselos inmediatamente a otros programas, lo cual ocurrió a una velocidad que llevó al primer algoritmo vendedor a interpretar que la liquidez del mercado era enorme y a aumentar su velocidad de venta. Durante unos segundos, millones de dólares se emplearon en operaciones disparatadas, que valoraban un activo erráticamente de 0 a 100.000 dólares. Afortunadamente, otros algoritmos de salvaguarda paralizaron el caos, lo que no impidió que el algoritmo que había desencadenado el proceso ganara en pocos minutos cuarenta millones de dólares.

Realidad e inteligencia aumentada

Este suceso llamó la atención sobre los problemas que podía causar la asociación de programas individuales bien diseñados pero que producían fenómenos imprevistos. Ramón López de Mántaras, uno de los pioneros de la IA en España, cree que debería prohibirse que robots inteligentes operen autónomamente en bolsa, por ejemplo en las HFT (Negociaciones de Alta Frecuencia).

Antes de dejarnos llevar por el alarmismo de estos hechos y opiniones, me gustaría explicar en qué consiste la IA. Plagiando la expresión de Rafael Alberti (“Perdonadme, yo he nacido con el cine”) podría decir que yo he nacido con la IA. En 1956, siendo yo adolescente, la expresión apareció en la famosa Conferencia de Dartmouth. Allen Newell y Herbert Simon (que luego ganó el premio Nobel de Economía) presentaron un programa capaz de hacer demostraciones de teoremas de alta matemática. El pionero había sido Alan Turing, que afirmó: “Existirá Inteligencia Artificial cuando en una conversación a ciegas no seamos capaces de distinguir entre un ser humano y un programa de computadora”.

En Dartmouth se creyó que se conseguiría en diez años. Ya entonces sonaron alarmas: la supremacía de la inteligencia humana tenía sus horas contadas. Joseph Weizenbaum elaboró un programa llamado Eliza que imitaba a una terapeuta. En realidad, era un conjunto muy sencillo de rutinas, pero que daban al usuario la impresión de haber encontrado por fin un psicólogo que le comprendía a la perfección. Weizenbaum se asustó de su creación y recomendó que no se prosiguiera con la IA. El consejo fue superfluo porque la IA se atascó. Su éxito al producir pensamiento matemático, hizo pensar a sus creadores que utilizando sistemas de lógica formal cada vez más potentes aumentarían la capacidad de la IA. Pero se empantanaron en actividades que los humanos hacemos sin ninguna dificultad, inaccesibles para las máquinas. Por ejemplo, reconocer patrones imprecisos, como la escritura a mano o la voz o los rostros.

Las investigaciones sobre IA hicieron su primera travesía del desierto. El interés, y los fondos, decayeron, hasta que en los años ochenta Japón lanzó su Proyecto de Sistemas de Quinta Generación, una masiva arquitectura de computación en paralelo, en la que pusieron grandes esperanzas. También proliferaron los sistemas expertos, programas que intentaban copiar el modo de pensar de profesionales de un campo. Las expectativas no se cumplieron y la IA sufrió su segunda travesía del desierto. Las cosas cambiaron en los años noventa. Se empezó a investigar sobre redes neuronales similares a las del cerebro y sobre algoritmos genéticos. La aplicación de potentes sistemas estadísticos y del cálculo de probabilidades se concretó en programas capaces de aprender. Se denomina deep lear­ning a este gran salto en la IA. Por ejemplo, una computadora puede aprender a reconocer expresiones orales por un proceso de entrenamiento, por ensayo y error. Un programa puede simular el proceso de aprendizaje de un bebé y construirse a sí mismo.

Ya habíamos asumido que los robots iban a desplazar a los humanos de los trabajos mecánicos, pero ahora aparece la posibilidad de que nos desplacen también de trabajos intelectuales. La omnipresencia de la inteligencia artificial, la generalización de esa realidad aumentada, nos exige repensar muchas cosas. Entre ellas, nuestros sistemas educativos. Acorde con esos cambios, vamos a tener que desarrollar una inteligencia aumentada que sepa pensar hibridando procesos neuronales y procesos electrónicos, y fomentarla desde la escuela… cuando sepamos cómo hacerlo. En un número reciente de la revista The Economist , dedicado a la Inteligencia Artificial, se lee: “Aunque la Inteligencia ­Artificial total de la que habla Hawking está aún lejos, las sociedades deben prepararse para la aparición de seres autónomos no humanos”.


Licdo. Néstor Flores Araujo:

En fin las nuevas tecnologías hacen las cosas más accesibles para nosotros, facilitándonos nuestra vida, pero debemos tener en cuenta que todos estos servicios son para ayudarnos y no para hacernos unos dependientes al cien por ciento de ella, ya que por más que avance la ciencia y la tecnología, nunca va a superar la inteligencia del ser humano.

No dejemos que la mal llamada asesina IA nos destruya, esta en nuestras manos el usarla adecuadamente sin olvidarnos del hermoso mundo que nos rodea. Hasta un próximo encuentro de Tecnología Hoy en donde estaremos compartiendo con más avances.

Licdo: Néstor Flores. email: nafagot@gmail.com – Twitter: @nafagot