ChatGPT puede llegar a ser ofensivo. Así que OpenAI va a pulirlo e incluso dejará que lo personalicemos
En las últimas semanas hemos visto como ChatGPT y Bing con ChatGPT están comenzando a mostrar problemas en su funcionamiento: no es solo que estos chatbots se equivoquen: es que durante la conversación acaban tomando posturas poco objetivas, defensivas y, en algunos casos extrañas e incluso ofensivas con los usuarios.
En OpenAI (y en Microsoft) lo saben, y los responsables de estos chatbots han indicado en un artículo en el blog oficial que están desarrollando una versión mejorada para ChatGPT que tendrá una característica interesante: podremos "personalizarlo".
La firma explicaba cómo desde su lanzamiento los usuarios "han compartido resultados que consideran políticamente tendenciosos, ofensivos o censurables. En muchos casos, creemos que las preocupaciones planteadas son válidas y han puesto de manifiesto limitaciones reales de nuestros sistemas que queremos solucionar".
El funcionamiento de ChatGPT se basa en redes neuronales en las que primero se realiza un "pre-entrenamiento" con un gran conjunto de datos para luego pasar a una fase en la que se pule el modelo para ir afinando el comportamiento del chatbot gracias a la interacción con los "revisores" de esas respuestas, que van ajustándolas de acuerdo a ciertas directrices.
Los ingenieros de OpenAI reconocen que el proceso es imperfecto, y tras estas primeras semanas y lo que han aprendido, indican que "vamos a proporcionar instrucciones más claras a los revisores sobre los posibles escollos y retos relacionados con la parcialidad, así como sobre las figuras y temas controvertidos".