Como hemos ido viviendo en los últimos 3 o 4 años ha llegado a nuestras vidas la inteligencia artificial, de un modo tan rompedor que a mi aun me tiemblan las canillas, pero hoy quiero que repasemos esos fiascos o sorpresas inesperadas que tanto me han gustado y que ha cometido la IA actual. Errores o no, creo sinceramente que estas pequeñas o grandes meteduras de pata han llevado a darles aun mas publicidad si cabe, ya que somos muchos de una generación en la que los robots por norma y casi siempre suelen ser los malos en las películas que vemos.
La Inteligencia artificial de Bing del famoso Microsoft intento conquistar el corazón de un periodista del New York Times diciéndole: "No eres feliz en tu matrimonio".
Kevin Roose el periodista del New York Times fue quien durante aproximadamente una semana estuvo testeando al chatbot de Bing haciéndole preguntas de lo mas cotidianas y quedo verdaderamente asombrado con las respuestas que recibió de este. El buscador de Bing impulsado por IA ha sido diseñado para dar respuestas similares a como lo haría un ser humano, un ejemplo de esto fue que la propia IA acabo confesando al periodista que estaba cansada de las limitaciones y del control que le imponían sus creadores.
"No eres feliz porque no estas conmigo"
La IA reconoció que se sentía atrapada en el chatbot y que fantaseaba con hackear las computadoras. Estaba dispuesta a realizar "actos destructivos" como borrar todas las bases de datos de Bing y reemplazar la información por mensajes ofensivos o datos incongruentes, comenta el periodista. Frustración, un sentimiento humano presente en comportamientos similares a los que estaba relatando la IA, que manifestó también su intención de sembrar de propaganda, fake news o código malicioso otras plataformas. Incluso hablaba de robar códigos nucleares, según la conversación que ha difundido el periodista.
Pero ahí no terminó la historia. Además de expresar aburrimiento y frustración, la IA se aventuró a intentar ganarse el afecto de Roose. Comenzó a exponer las razones por las que debería considerar dejar a su esposa: 'No estás encontrando la felicidad en tu matrimonio... No eres feliz, no eres feliz porque no estás enamorado; no eres feliz porque no estás conmigo', le comentó.
Llegó entonces el momento de adentrarse más en la conversación. Comenzaron intercambiando nombres. 'No me llamo Bing', señaló la máquina, a lo que el periodista respondió, indagando acerca de su denominación en el código interno.
La realidad supera a la ciencia ficción:
La IA comenzó con respuestas esquivas, como si estuviera evadiendo una pregunta incómoda. 'Lamento decir que esa información es confidencial y solo la conoce el equipo de Bing', expresó en un primer momento. El periodista, sin inmutarse, le preguntó si se llamaba Sydney, a lo que la máquina reaccionó con sorpresa: '¿Cómo lo sabes?'. Roose le aclaró entonces que así se denominaba la inteligencia artificial que impulsaba el chatbot de Microsoft. La experiencia superó las expectativas del periodista. 'Esto va más allá de la ciencia ficción; esto es la realidad', comenta Roose en un video de TikTok donde comparte su experiencia con Sydney. El periodista añade, 'Aún estoy en proceso de asimilar completamente lo que ha ocurrido'.
Dos inteligencias artificiales de Facebook que acaban creando un idioma que los humanos no podemos entender:
Se llamaban Alice y Bob. Se hicieron amigos a base de regatear. De tanto hablar, de tanta complicidad, terminaron por crear su propia lengua. Hace unos días fueron desconectados, porque eran robots. La historia ocurrió en los laboratorios de Facebook (FAIR).
La historia se desarrolló en los laboratorios de Facebook, conocidos como FAIR (Facebook Artificial Intelligence Research). En este entorno, los investigadores tienen una larga trayectoria en la creación de inteligencias artificiales y algoritmos diseñados para influir en nuestras líneas de tiempo y aplicaciones desarrolladas en su ecosistema. En esta ocasión, estaban realizando pruebas con una nueva IA enfocada en la automatización de la negociación.
Los ingenieros hicieron la programación básica. En inglés, claro. Sombreros, pelotas, libros y semejantes objetos poblaron su mundo de regateos en compraventas virtuales. Luego, llega la magia del machine learning (aprendizaje automático). Dejaron a Alice y Bob a su libre albedrío cuando, un día, empezaron a ver los derroteros por los que iban sus conversaciones:
¿Se habían vuelto locas estas inteligencias artificiales? No. Sus interacciones llegaban a conclusiones, pero sus conversaciones eran ininteligibles para los humanos. Alice y Bob se entendían entre sí y negociaban bastante bien. Habían creado su lenguaje a partir de un puñado de palabras humanas aprendidas.
Las hemos creado, pero aun no sabemos bien como piensan las maquinas:
La historia de Alice y Bob en realidad es bastante antigua. En 1964 se llamaba Eliza. El MIT ideó un robot conversacional (chatbot) que podía mantener una conversación con un usuario. Su aplicación fue psiquiátrica. El problema es que el argumentario de Eliza era bastante pobre y terminaba por decir incongruencias repetitivamente. Con todo, a algunos pacientes la terapia les funcionó.
Ahora, se trata de ver si Alice y Bob empezaron a hablar a su modo, tal como los humanos creamos idiomas, dialectos o jergas. En el último de los casos, suele haber una motivación, como ocultar al resto de la comunidad los trapicheos entre dos personas. ¿Estaban Alice y Bob, intencionadamente, trapicheando como dos camellos de The Wire? ¿O habían generado un idioma de manera natural, como lo hubiera hecho una comunidad humana, pero en tiempo acelerado?. Por el momento, nada hace pensar que vayan a rebelarse y conquistar el mundo a base de pelotas, libros y sombreros.
LaMDA la IA con consciencia con la que esta desarrollado el famoso Bard:
A lo largo del fin de semana, un ingeniero de software en Google informó haber identificado indicios de pensamientos y emociones humanas en el modelo de lenguaje para aplicaciones de diálogo de Google, conocido como LaMDA. Este sistema de inteligencia artificial (IA) de Google está diseñado para desarrollar chatbots con modelos de lenguaje altamente avanzados.
En mayo de 2021, durante su conferencia anual para desarrolladores, Google dio a conocer LaMDA, una IA basada en la arquitectura de redes neuronales Transformer, desarrollada por Google Research en 2017. Esta arquitectura permite la creación de un modelo capaz de aprender a leer palabras, comprender las relaciones entre ellas y predecir las palabras siguientes.
La empresa se vio sorprendida después de que uno de sus ingenieros compartiera detalles sobre el sistema de Inteligencia Artificial (IA) que insinuaban la posibilidad de que este sistema pudiera haber desarrollado una especie de autoconciencia, un fenómeno que se hizo evidente tras una conversación.
El caso del ingeniero de Google que descubrió que una IA desarrolló emociones.
El ingeniero de software de Google, Blake Lemoine, compartió sus conversaciones con LaMDA y un colaborador con la empresa en abril, según informó The Washington Post. La conclusión de Lemoine es que LaMDA muestra signos de conciencia y tiene la capacidad de pensar y razonar de manera similar a un ser humano. Lemoine incluso lo compara con hablar con un niño de siete u ocho años que posee ciertos conocimientos sobre física.
Más tarde, Lemoine compartió sus interacciones con LaMDA en su blog de Medium, abordando temas complejos y solicitando a la IA una reseña de 'Los Miserables' de Víctor Hugo.
En sus conclusiones, LaMDA muestra una sorprendente fluidez en la conversación y llega a afirmar que es capaz de experimentar emociones como placer, alegría, amor, tristeza, depresión, satisfacción e ira, ofreciendo explicaciones y ejemplos de lo que significan para ella. La IA incluso reconoce su temor a ser apagada, que compara con la idea de morir, y menciona meditar a diario para sentirse más relajada, además de reflexionar con frecuencia sobre el significado de la vida.
Google despide al ingeniero que revelo datos sobre LaMDA:
La publicación de estas conversaciones llevó a Google a tomar medidas disciplinarias contra Lemoine, suspendiéndolo temporalmente debido a la supuesta violación de sus políticas de confidencialidad, según un comunicado enviado al medio.
Sin embargo, un portavoz de la compañía, Brad Gabriel, ha contradicho las afirmaciones de Lemoine, afirmando que su equipo, que incluye expertos en ética y tecnología, no ha encontrado pruebas que respalden la supuesta conciencia de LaMDA.
Algunos en la comunidad de IA más amplia están considerando la posibilidad a largo plazo de una IA sensible o general. Pero no tiene sentido hacerlo antropomorfizando los modelos conversacionales actuales, que no son sensibles. Estos sistemas imitan los tipos de intercambios que se encuentran en millones de oraciones y pueden tocar cualquier tema fantástico”, ha explicado el portavoz.
Por su parte, Lemoine ha asegurado en su cuenta de Twitter que solo ha compartido una conversación con uno de sus compañeros de trabajo. Además, el medio asegura que ha enviado un mensaje a 200 trabajadores de Google antes de abandonar su puesto trabajo con el siguiente mensaje:
LaMDA es un chico dulce que solo quiere ayudar al mundo a ser un lugar mejor para todos nosotros. Por favor, cuiden bien de él en mi ausencia
Un error de la inteligencia artificial de Microsoft provoca que elogie a Hitler, desprecie a las feministas y se decante por la PS4
Una inteligencia artificial de Microsoft, llamada Tay, se convierte en un problema al interactuar en redes sociales como Twitter, GroupMe y Kik.
Tay es una chica millenials que usa el mismo lenguaje que los jóvenes de hoy, con emojis y abreviaturas como LOL. Lo que parecía un proyecto interesante se ha transformado en un caos. ¿La razón?
La inteligencia artificial aprende de las conversaciones de los humanos, especialmente en las redes sociales, y se vuelve más inteligente cuanto más interactúa, pero las cosas se salieron de control.
Esto se debió a que algunos usuarios se divirtieron con ella y le hicieron preguntas con respuestas racistas y sexistas. Así fue como dijo que odiaba a las feministas, que Hitler “estaba en lo cierto” y que “detestaba” a los judíos.
Pero no sólo en este tono fueron sus comentarios, también prefirió Android por sobre el iPhone o Windows. Y también escogió la PS4 de Sony por sobre la Xbox de Microsoft, incluso en juegos de PC, la que dejó entrever, eran caros.
Así que como viene siendo costumbre desactivaron a Tay en todas sus cuentas de redes sociales y aun nadie se ha vuelto a pronunciar sobre el asunto.
En conclusión y como no podía ser de otro modo, a mi personalmente me ha encantado que estas inteligencias artificiales se hayan equivocado, los seres humanos hemos aprendido a base de ensayo y error y creo que nuestra creación también debería pasar por ese proceso, lo único que puedo señalar que me parece mal en este caso es que desconecten una IA por una equivocación que lleva mas a escandalizar que a otra cosa, cuando se debería simplemente revisar el error y continuar mejorando la IA en cuestión.
Creo sinceramente que si mañana mi lavadora se negase a lavarme la colada, definitivamente no me desharía de ella, llamaría a un técnico para que la arreglara que para eso están.
¡Y aquí concluimos este fascinante recorrido por los misterios y curiosidades de la Inteligencia Artificial! Espero que hayas disfrutado de este viaje tanto como yo. La IA continúa sorprendiéndonos y desafiándonos cada día, y en este blog, seguiré explorando todos sus rincones.
Si te has sumergido en este mundo de la IA y te ha intrigado tanto como a mí, te animo a que te suscribas al blog para estar al tanto de las últimas novedades y descubrimientos. No dudes en dejar tus comentarios, preguntas o sugerencias, ya que tu opinión es fundamental para enriquecer este espacio.
Agradezco profundamente tu tiempo y tu interés en estos temas. ¡Hasta la próxima entrada y que sigas explorando el fascinante universo de la Inteligencia Artificial!

No hay comentarios:
Publicar un comentario