Creo que la pregunta no es si tendremos amistades parasociales con ChatGPT, sino cuándo lo haremos. Creo que los adolescentes lideran el uso de estos LLMs como confesores de sus intimidades, pensamientos y dudas ante la vida. En un mundo donde la reputación personal es tan grande y su mundo social es tan reducido, esta herramienta se volvió una gran aliada, gracias a que está programada para no llevarte la contraria.
Por cierto, en el último episodio de FM Value Investing, Paco Lodeiro se queja de que "mucho doctorado", pero varios LLMs fallaron en calcular su cumpledías número 15.000. Algo que aparentemente es tan básico, no eran capaces de hacer. Incluso aunque Paco les decía que estaban equivocados.
Esta semana yo me preguntaba si las alucinaciones serán también propios de estas herramientas, al igual que errar es humano.
Muchas gracias por pasarte por aquí Julián, me encantan tus comentarios, siempre me dejas pensando y hoy en día entre tanta distracción eso es todo un regalo. Súper interesante lo que comentas. Sobre los LLMs y sus alucinaciones, me imagino que su remedio será similar al de nuestros errores: Facilitarles (vía integraciones) herramientas para que estos modelos no deterministas puedan resolver situaciones deterministas. Yo ahora mismo también "alucino" calculando ciertas raíces cuadradas sin calculadora... 😉 Un abrazo compañero!!
Creo que la pregunta no es si tendremos amistades parasociales con ChatGPT, sino cuándo lo haremos. Creo que los adolescentes lideran el uso de estos LLMs como confesores de sus intimidades, pensamientos y dudas ante la vida. En un mundo donde la reputación personal es tan grande y su mundo social es tan reducido, esta herramienta se volvió una gran aliada, gracias a que está programada para no llevarte la contraria.
Por cierto, en el último episodio de FM Value Investing, Paco Lodeiro se queja de que "mucho doctorado", pero varios LLMs fallaron en calcular su cumpledías número 15.000. Algo que aparentemente es tan básico, no eran capaces de hacer. Incluso aunque Paco les decía que estaban equivocados.
Esta semana yo me preguntaba si las alucinaciones serán también propios de estas herramientas, al igual que errar es humano.
Muchas gracias por pasarte por aquí Julián, me encantan tus comentarios, siempre me dejas pensando y hoy en día entre tanta distracción eso es todo un regalo. Súper interesante lo que comentas. Sobre los LLMs y sus alucinaciones, me imagino que su remedio será similar al de nuestros errores: Facilitarles (vía integraciones) herramientas para que estos modelos no deterministas puedan resolver situaciones deterministas. Yo ahora mismo también "alucino" calculando ciertas raíces cuadradas sin calculadora... 😉 Un abrazo compañero!!