Las voces de la inteligencia artificial

Tom Standage, subdirector de The Economist y autor de varios libros sobre historia de las tecnologías (véase, por ejemplo, su Victorian Internet), escribe esta semana en 1843 Magazine un sugerente artículo (“Speak and Ye Shall Find”) en el que relata la experiencia familiar de convivir con Alexa, la asistenta de voz de Amazon Echo. Standage cuenta cómo su hijo hace preguntas comprometidas a Alexa, sobre la existencia de Santa Claus o de Dios -algunas reciben respuesta (como la primera) y otras no (como la segunda)-; describe también cómo él mismo o su esposa le interrogan sobre muchas otras cosas cotidianas, y cómo, en definitiva, esta “asistenta tecnológica” ha pasado a ser parte del servicio del hogar. Reflexiones como la de Standage, sobre las “conversaciones” entre las personas y las máquinas, proliferan en los últimos tiempos al hilo de la explosión de dispositivos de asistencia de voz vinculados al Internet de las cosas. Siri (Apple), Alexa (Amazon), Cortana (Microsoft), M (Facebook) y muchos (mejor, muchas) otras asistentes de voz –también asistentes “locales”, como Sherpa, en España- se están introduciendo de forma masiva en nuestras vidas, a través de viejos y nuevos dispositivos tecnológicos a los que estamos conectados las 24 horas del día.

Estas voces de la inteligencia artificial, que tantas veces las hemos escuchado ficcionalizadas en el cine -asociadas a menudo a grandes ordenadores inteligentes, que acaban comportándose como seres humanos-, están hoy a disposición de todos, emitiendo desde “la nube”, y cada vez lo estarán de forma más extendida. El intercambio de mensajes entre las personas y máquinas va a ser parte de nuestra vida, tanto para solucionar pequeños problemas de gestión –en el hogar, en el trabajo, en nuestra relación con la Administración, etc.-, y recibir información básica sobre nuestro entorno (meteorología, circulación, necesidades de entretenimiento, etc.), como para afrontar otros retos de mayor calado. De hecho, ya se habla, por ejemplo, de la “inteligencia artificial emocional”, o de los dispositivos que pueden ayudarnos a tomar decisiones complejas en torno a nuestra vida personal, profesional o pública. Si Skynet (Terminator) o Matrix (Matrix) nos parecen todavía mundos de ciencia ficción, no da la sensación de que estemos muy lejos de realidades como las narradas en Her, la película en la que un solitario escritor que se acaba de separar de su esposa, Theo, se “enamora” de Samantha (la seductora asistente de voz de su sistema operativo).

Siri, Alexa, Cortana…, y las futuras Samanthas, verbalizan la enorme utilidad de la Inteligencia Artificial y el grado en que las nuevas tecnologías, en su dimensión más utilitaria, nos pueden facilitar la vida a personas y a organizaciones. No hay más que pensar, por señalar uno entre infinitos ejemplos, en las ventajas que un asistente de voz como Siri, en un dispositivo móvil tan amigable y popular como iPhone, puede ofrecer a las personas con discapacidad visual. Sin embargo, junto a esas funcionalidades evidentes, la “conversación” entre personas y dispositivos como los citados, o los que vengan de aquí en adelante –mucho más capaces- empieza a generar también múltiples inquietudes.

Sólo por citar algunas de ellas, preocupa, por ejemplo, la utilización lúdica de estas asistentes de voz por parte de los niños, y los hábitos de relación que con ellas puedan establecer (rudos, fríos, autoritarios, sin filtros, sin matices en la “conversación”, etc.). En “Are Alexa, Siri, and Their Pals Teaching Kids to Be Rude?”, Robby Berman se pregunta: “What happens when kids get used to not saying ‘please’ and ‘thank you,’ and generally feeling unconcerned with the feelings of those with whom they speak?”. Preocupan también algunas utilidades complejas que se advierten ya para estos dispositivos, como su capacidad para registrar y analizar la “voz del amo”, e identificar potenciales problemas de salud con carácter preventivo para ofrecer consejos sobre cómo solucionarlos (“Alexa, Cortana And Siri Are About To Diagnose Your Health” y “Voice Analysis Tech Could Diagnose Disease”). Por supuesto, intranquiliza que en los intercambios de mensajes con las máquinas “las palabras no se las lleve el viento”, sino que queden registradas, lo que no hace sino agravar los enormes problemas de protección de la privacidad en entornos tecnológicos (“The Privacy Problem with Digital Assistants”). Y hasta a algunos les inquieta, por último, que las “voces de la inteligencia artificial” tengan un verdadero problema de género, ya que la inmensa mayoría son identidades y voces femeninas (“Why Do So Many Digital Assistants Have Feminine Names?”).

La lista de preocupaciones, desde las más anecdóticas hasta las más serias, es interminable, pero cuando nos adentramos en el mundo de lo más humano, el de nuestras acciones y decisiones y, en definitiva, el del ejercicio de la libertad, las preguntas que nos asaltan pueden llegar a estremecer. Matthew Hutson, en The Atlantic (“Our Bots, Ourselves”) se refiere a algunas de ellas: “What can an assistant do on our behalf? Should it be able to make purchases for us? What if we ask it to do something illegal—could it override our commands? She also worries about privacy. If an AI agent determines that a teenager is depressed, can it inform his parents? We will need to decide whether agents have something like doctor-patient or attorney-client privilege. Can they report us to law enforcement? Can they be subpoenaed? And what if there’s a security breach? Some people worry that advanced AI will take over the world, but Kambhampati, of the Association for the Advancement of Artificial Intelligence, thinks malicious hacking is the far greater risk. Given the intimacy that we may develop with our ever-present assistants, if the wrong person were able to break in, what was once our greatest auxiliary could become our greatest liability”. Por supuesto, estas preguntas tienen especiales implicaciones en el mundo de la actividad profesional, en el que como ha comentado (http://www.inc.com/lisa-calhoun/marc-andreessen-predicts-only-two-types-of-jobs-in-the-future-which-one-will-you.html) Marc Andreessen, famoso inversor en negocios tecnológicos y cofundador de Netscape, habrá dos tipos de trabajos en el futuro: “those that involve telling computers what to do, and those that involve being told what to do by computers”.

Nos jugamos mucho en la actitud y en la postura que adoptemos ante esta creciente “conversación” con los agentes de la inteligencia artificial, porque en el futuro van a ser actores fundamentales en nuestras relaciones con el entorno y con nuestros semejantes. Van a ser también “voces” esenciales en la generación del conocimiento compartido que nos permita actuar en sociedad; unas voces antes las que será necesario –como señala Robert Herritt en “Hard to Believe”, un interesante artículo publicado en The New Atlantic– cultivar las virtudes epistémicas que nos ayuden a manejarnos en un universo de saberes cada vez más infoxicado.

El conocimiento generado en las “conversaciones” con las voces de la Inteligencia Artificial tiende a reproducir las sospechas y la inquietud que ya Sócrates expresó cuando advirtió de las amenazas del paso de una cultura del diálogo, de la palabra hablada, a una cultura de los libros, del texto escrito. Platón, en el Fedro, ponía en boca de su maestro estas ideas: “Éste es, mi querido Fedro, el inconveniente, así de la escritura como de la pintura; las producciones de este último arte parecen vivas, pero interrógalas, y verás que guardan un grave silencio. Lo mismo sucede con los discursos escritos: al oírlos o leerlos crees que piensan, pero pídeles alguna explicación sobre el objeto que contienen, y te responden siempre la misma cosa. Lo que una vez está escrito rueda de mano en mano, pasando de los que entienden la materia a aquellos para quienes no ha sido escrita la obra, sin saber, por consiguiente, ni con quién debe hablar, ni con quién debe callarse. Si un escrito se ve insultado o despreciado injustamente, tiene siempre necesidad del socorro de su padre, porque por sí mismo es incapaz de rechazar los ataques y de defenderse”. No sé por qué, pero estas ideas, de salvaguarda de lo humano, suenan bastante parecidas a algunas de las que aquí se han comentado sobre nuestra relación con Siris, Alexas y otras voces de la Inteligencia Artificial.

 

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s