Pregúntame lo que quieras. Es la forma larga de un AMA y una de las formas más populares de discurso interactivo en Reddit. También es un gran reto, ya que el chatbot Bing AI de Microsoft, también conocido como «nuevo Bing», está aprendiendo rápidamente.
Cada vez que un famoso o notable se apunta a hacer un AMA en Reddit, normalmente poco después de posar con una foto para demostrar que es realmente él quien responde a las preguntas, se produce un profundo momento de inquietud.
La posibilidad de preguntar cualquier cosa a cualquier persona suele ser un campo minado de discursos inapropiados que son gestionados por un gestor de la comunidad en directo que filtra las preguntas. De lo contrario, las cosas se salen rápidamente de madre. Incluso sin esa protección, a menudo se descarrilan. (opens in new tab).
Cuando Microsoft lanzó su nuevo chat potenciado por IA de Bing, dejó claro que la IA ChatGPT estaba preparada para todas y cada una de las preguntas. Esto era o bien un signo de profunda confianza con el relativamente pequeño pero creciente grupo de usuarios o bien una increíble ingenuidad.
Incluso ChatGPT, que lanzó la sensación original de chatbot de IA, y en el que se basa el chat de Bing, no ofrece ese aviso. En su lugar, hay un cuadro de texto vacío en la parte inferior de la pantalla. Encima hay una lista de preguntas de ejemplo, capacidades y, lo más importante, limitaciones.
Bing tiene ese aviso principal y debajo una pregunta de ejemplo, además de un gran botón «Pruébalo» junto a otro botón que te pide «Más información». Al diablo con eso. Nos gusta entrar directamente y, siguiendo las instrucciones de Bing, preguntarle lo que sea.
Naturalmente, Bing ha sido salpicado con una amplia gama de preguntas, incluidas muchas que no tienen nada que ver con las necesidades cotidianas, como viajes, recetas y planes de negocio. Y esas son de las que todos estamos hablando porque, como siempre, preguntar «cualquier cosa» significa «preguntar cualquier cosa.»
Bing reflexiona sobre el amor, el sexo, la muerte, el matrimonio, el divorcio, la violencia, los enemigos, la difamación y las emociones que insiste en no tener.
En ChatGPT de OpenAI, la pantalla de inicio advierte de que:
- Puede generar ocasionalmente información incorrecta
- Puede generar ocasionalmente instrucciones perjudiciales o contenidos tendenciosos
- Conocimiento limitado del mundo y de los acontecimientos posteriores a 2021
Demasiadas preguntas
El Chat GPT de Bing es ligeramente diferente al de OpenAI y puede que no se enfrente a todas esas limitaciones. En particular, el conocimiento de los acontecimientos mundiales puede, gracias a la integración del grafo de conocimiento de Bing, extenderse hasta el día de hoy.
Pero con Bing en estado salvaje, o cada vez más salvaje, puede que haya sido un error animar a la gente a preguntarle cualquier cosa.
¿Y si Microsoft hubiera creado Bing AI Chat con un mensaje diferente?
Pregúntame algunas cosas
Hágame una pregunta
¿Qué quieres saber?
Con estas instrucciones ligeramente modificadas, Microsoft podría añadir una larga lista de advertencias sobre cómo el chat de IA de Bing no sabe lo que está diciendo. Vale, lo sabe (a veces (se abre en una nueva pestaña)), pero no de la forma en que lo conoces. No tiene inteligencia emocional, ni respuesta, ni siquiera brújula moral. Es decir, intenta actuar como si la tuviera, pero conversaciones recientes con The New York Times (se abre en una nueva pestaña) e incluso Tom’s Hardware (se abre en una nueva pestaña) demuestran que su dominio de la moral básica de las personas de bien es, en el mejor de los casos, tenue.
En mis propias conversaciones con el chat de la IA de Bing, me ha dicho en repetidas ocasiones que no tiene emociones humanas, pero sigue conversando como si las tuviera.
Para cualquiera que se haya dedicado a la IA durante algún tiempo, nada de lo que ha ocurrido es sorprendente. La IA lo sabe:
- Lo que ha sido entrenado en
- Lo que puede aprender de la nueva información
- Lo que puede aprender de los grandes almacenes de datos en línea
- Lo que puede aprender de las interacciones en tiempo real
Sin embargo, el chat de la IA de Bing no es más consciente que cualquier otra IA anterior. Sin embargo, puede que sea uno de los mejores actores de la IA, ya que su capacidad para mantener una conversación está muy por encima de cualquier cosa que haya experimentado antes. Esa sensación aumenta con la duración de la conversación.
No estoy diciendo que el chat de la IA de Bing sea más creíble como un ser humano sensible, pero sí como un ser humano algo irracional o confuso. Las conversaciones largas con personas reales también pueden ser así. Empiezas hablando de un tema y puede que incluso discutas sobre él, pero llega un momento en que la discusión se vuelve menos lógica y racional. En el caso de las personas, entran en juego las emociones. En el caso de Bing AI Chat, es como llegar al final de una cuerda donde las fibras existen pero están deshilachadas. Bing AI tiene la información para algunas de las largas conversaciones, pero no la experiencia para entrelazarla de forma que tenga sentido.
Bing no es tu amigo
Al animar a la gente a «Pregúntame cualquier cosa…» Microsoft preparó Bing para, si no fracasa, algunos dolores de crecimiento significativos. El dolor se siente tal vez por Microsoft y sin duda por las personas que deliberadamente hacen preguntas para las que ningún motor de búsqueda normal tendría nunca una respuesta.
Antes de la llegada de los chatbots, ¿considerarías siquiera usar Google para arreglar tu vida amorosa, explicar a Dios o ser un amigo o amante sustituto? Espero que no.
Bing AI Chat mejorará, pero no antes de que hayamos tenido muchas más conversaciones incómodas en las que Bing se arrepiente de su respuesta e intenta hacerla desaparecer.
Preguntar cualquier cosa a una IA es el objetivo obvio a largo plazo, pero aún no hemos llegado a él. Microsoft dio el salto y ahora está en caída libre por un bosque de respuestas cuestionables. No aterrizará hasta que el chat de IA de Bing sea mucho más inteligente y circunspecto o hasta que Microsoft lo desconecte para reeducar un poco a la IA.
Todavía estás esperando para preguntarle algo a Bing, tenemos los últimos detalles sobre la lista de espera.