fbpx
+5491136057263
info@socialmediaweb.com.ar

Mentime que me gusta, otro vicio oculto de la inteligencia artificial

www.socialmediaweb.com.ar

Mentime que me gusta, otro vicio oculto de la inteligencia artificial

Hace un par de meses le pregunté a Microsoft si podía hablar con los responsables del programa de inteligencia artificial (IA) que selecciona las imágenes de inicio de sesión en Windows 10. Me esperaban dos sorpresas.

Sorpresa Número 1: no existe tal programa de inteligencia artificial para seleccionar las imágenes de acuerdo con las respuestas de los usuarios. Fue una conclusión personal equivocada de la que me hago cargo.

Sorpresa Número 2: según los representantes de Microsoft en la Argentina, la compañía tiene un equipo de humanos que se ocupa de esa selección de fotos.

El dato me descolocó. No solo porque se trata de una de las mayores corporaciones tecnológicas del planeta, sino porque ese interrogatorio en el inicio de Windows era la oportunidad perfecta para alimentar alguna clase de sistema de aprendizaje automático. Estaba completamente persuadido de eso. Pero, no. Así que, en caso de que de verdad del otro lado haya personas, mis disculpas: el que intentaba confundir a la IA con selecciones inconsistentes y súbitos cambios de humor estético era yo. Mala mía.

Cuando pasó el estupor (y me anoté mentalmente aceptar la propuesta de hacerle una entrevista al jefe de ese equipo, que la gente de Microsoft me planteó en su momento), me di cuenta de que la afirmación opuesta tenía por fuerza que ser igualmente cierta. Es decir, muchas cosas que creemos que están en manos de personas, en realidad son administradas, controladas o de alguna otra forma gestionadas por inteligencia artificial, de forma transparente. Un instante después, me dije:

–Ah, hoy te levantaste inspiradísimo. ¡Hace décadas que eso es así!

Bueno, no estaba teniendo un buen día. Pero ahí había una idea. Solo que a veces las ideas son algo escurridizas. Al final, pude hacer foco. La verdad, como suele ocurrir, no estaba en ninguno de los dos extremos, sino en el medio. Lo que está empezando a pasar es que no podemos saber de antemano qué está haciendo la inteligencia artificial. ¿Podría ser la que selecciona fotos cada vez más adecuadas a nuestros gustos, de acuerdo con ciertos patrones visuales? Sí, podría. De hecho, tenía todo el sentido. ¿Era el caso? No, no lo era. Pero la cuestión no estaba ahí, sino en que había podido averiguar ese dato porque trabajo de esto y puedo preguntarle a una corporación estadounidense cómo elige las fotos de sesión de Windows. ¿Y todo lo demás?

Habrán notado que las dos plataformas de correo electrónico más populares, Gmail y Outlook.com, son cada vez más refinadas a la hora de sugerir respuestas para los mails que recibimos. Voy a volver sobre este tema en otra columna, porque todavía estoy haciendo algunos experimentos, pero la siguiente situación fue un poco aterradora. Una colega concluyó su correo con un cortés “Espero que estés bien”. Automáticamente, Outlook.com me ofreció contestarle: “Todo bien, gracias”.

Sí, asusta un poquito. Pero, al menos en este caso, uno sabe que hay software de inteligencia artificial leyendo lo que mandamos y recibimos. Es como los mensajes de cumpleaños de LinkedIn. Feliz cumpleaños a botonera, por así decir. Pero uno sabe que esa persona le dio clic al botoncito de felicitar. Es decir, que ni siquiera se tomó el trabajo de redactar cuatro palabras para el agasajado cuyo cumpleaños parece importarle tanto.

Entre todas estas líneas de pensamiento había una más, más profunda y elusiva, que aparecía y desaparecía. Está bien, sí, ya no somos capaces de saber cuándo la inteligencia artificial está actuando y cuándo no. Ni siquiera, llegado el caso, sus propios creadores pueden estar completamente seguros de cómo hace las cosas. Por eso es inteligencia y no simple automatización. ¿Qué estaba mal en esta foto? O, en todo caso, ¿por qué me parecía que había algo mal en esta foto?

Recordé entonces otro mail. Y no diré que se me heló la sangre, pero solo porque es una frase excesivamente trillada. Ahora veía claro dónde estaba el problema.

¿Qué había pasado con ese correo electrónico? Uno de nuestros editores fotográficos me pedía otra foto para una cierta nota, porque la que le había mandado no lo convencía. A mí tampoco, y al final pudimos hacer una mejor. Pero una de las sugerencias de respuesta autónoma de Outlook.com era de verdad escalofriante. Decía, textualmente: “Ya te mando otra”.

El único pequeño problema era que no tenía otra para mandarle. Es una suerte que la IA no se haya arrogado el derecho de responder en mi nombre. De otro modo, el pobre editor todavía estaría esperando la nueva foto. O, puesto de una forma más clara: la máquina no tenía ningún problema en mentir por mí. Leyó la pregunta. La entendió. Y le dijo al editor fotográfico lo que el editor quería escuchar.

Con todo, me daba la impresión de que al análisis era como un rompecabezas al que le faltaba una pieza. ¿Qué puede haber más frustrante? La respuesta no estaba en la bibliografía ni en las fuentes. Era un problema filosófico. Lo dejé macerar. Y ahí quedó. Una semana o dos. Hasta que una mañana, mientras desayunábamos, dije, de la nada y a viva voz:

–El problema no es que la inteligencia artificial mienta. El problema es que no puede saber si le están mintiendo.

Me tienen paciencia, hay que reconocerlo. Una declaración de esa clase no te ayuda arrancar el día bien arriba. Pero estaba señalando un hecho que, además, se ha probado horriblemente cierto. Algunos desastres aéreos causados por los pilotos automáticos se debieron a que la inteligencia artificial no fue capaz de determinar que, por ejemplo, los tubos de Pitot estaban dándole información falsa. Me imaginé una entidad extraordinariamente inteligente, pero de una ingenuidad incurable y una completa falta de sentido común. Pensé de nuevo en el mail del editor fotográfico. ¿No daba lo mismo que la respuesta sugerida fuera “Dame un rato para buscar otra”? No, tampoco, porque no habría podido resolverlo buscando; había que hacer otra foto. Ese era el conflicto, en este caso. La IA responde de acuerdo con las preguntas que recibe, pero aunque entiende lo que dicen, está desconectada de la realidad y del contexto; al menos, por ahora. Más aún: ¿le daba vergüenza al algoritmo negarse a responder a una demanda y contestar “No tengo otra, arreglate, es lo que hay”? No es que fuera a responder con tan poco tacto a un colega, ni en esta vida ni en la próxima; pero en los hechos, el tema se resolvió por esa vía: no tengo otra => hagamos otra => hicimos otra.

Pero, aparte de la diplomacia, el conflicto residía en el hecho de que la máquina había reaccionado a un estímulo sin plantearse su veracidad y su verosimilitud. En una plataforma de correo era solo una curiosidad. En un avión, en cambio, podía conducir a una catástrofe. Solo la intervención oportuna de una mente humana había logrado, en un puñado de ocasiones, salvar el día. En otras oportunidades, la IA había impuesto su voluntad por la fuerza, con consecuencias bien conocidas. Ejemplo de ambas situaciones es el del MCAS de Boeing; en estos casos, el dato falso había sido provisto al piloto automático por los sensores de ángulo de ataque.

Ahora los puntos se unían a la perfección. Estamos basando gran parte de nuestras rutinas diarias en algoritmos que se han vuelto transparentes y que, a la vez, pueden tomar la mentira como verdad sin dudarlo un segundo. Quedaba una pregunta flotando, sin embargo. ¿Es posible programar la duda?

El interrogante es particularmente incómodo porque ni siquiera nosotros, los humanos, podemos definir de forma completa (esa definición es necesaria para escribir un algoritmo) cómo dudamos. ¿Por qué algo nos inspira dudas? ¿Por qué un niño es más ingenuo que un adulto de 70 años? Es algo que tiene que ver con la experiencia, evidentemente. ¿Pero es lo mismo la experiencia que leer un millón de libros por segundo, como el sistema Watson de IBM? No, no parece. ¿Para qué existe la duda? No es patrimonio exclusivo de los humanos. Cualquiera que tenga un perro o un gato lo sabe. Daría la impresión de que la evolución privilegió la duda como otro mecanismo que garantizaba la supervivencia y, como consecuencia, aumentaba las chances de participar del pool genético, reforzando el rasgo en cuestión (en este caso, la duda). ¿Pero hablamos aquí de duda o de desconfianza? ¿Son parientes? En todo caso, demasiado de ambas, y adiós pool genético.

Incluso si pudiéramos responder estas preguntas, la más ardua sigue en pie: no podemos definir por qué algo nos inspira dudas. Todos hemos atravesado por esa experiencia; a menudo, además. La reacción suele ser instantánea. Simplemente, uno sabe. Y sabe que no se equivoca. ¿Puede equivocarse? Sí, claro. Pero resulta que la tasa de error tiende a ser muy baja, y por eso confiamos tanto en algo que denominamos instinto, corazonada, intuición.

Típico de las preguntas incómodas, esta lleva a una más disruptiva. ¿Qué ocurriría si la IA finalmente empezara a dudar?

Fuente: https://www.lanacion.com.ar/tecnologia/mentime-que-me-gusta-otro-vicio-oculto-de-la-inteligencia-artificial-nid09012021/

Mentime que me gusta, otro vicio oculto de la inteligencia artificial

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

A %d blogueros les gusta esto: