La inteligencia artificial ha adquirido la característica más inquietante de las personas educadas

Tenga cuidado con las personas inteligentes: parecen saber la respuesta a todas las preguntas, pero pueden decir las mentiras más grandes de manera convincente. Esto es lo que encontró el Portal de Noticias del Futuro A sus editores Acerca de los últimos hallazgos de investigaciones relacionadas con la inteligencia artificial (IA).

Cada nueva versión de la IA se vuelve más inteligente, pero las investigaciones han demostrado que, al mismo tiempo, se está volviendo cada vez menos confiable. Las iteraciones más recientes han adquirido la característica más molesta de las personas educadas: prefieren ocultar algún tipo de respuesta a las preguntas que se les plantean, que admitir que no saben la respuesta.

Fue publicado en la revista Nature. el estudia Sus autores investigaron los grandes modelos de lenguaje de OpenAI GPT, Meta LLaMA y BigScience de código abierto BLOOM. Por un lado, descubrieron que en la mayoría de los casos daban respuestas más precisas que sus versiones anteriores y, por otro lado, aumentó la tasa de respuestas incorrectas.

Hasta ahora, la inteligencia no se ha quedado atrás de la IA, pero ha empeorado, según Mike Hicks, profesor de la Universidad de Glasgow. Un especialista en cuestiones filosóficas de ciencia y tecnología hizo una declaración severa: “Parece que están haciendo lo que llamamos tonterías en la vida cotidiana. Pretenden saber la respuesta a algo que no saben.

Según el estudio, las personas sordas más grandes son los programas GTP-4 y o1 de OpenAi, que «saben la respuesta» a casi todas las preguntas que reciben. Sin embargo, este es el caso de todos los modelos de IA. Por ejemplo, ninguno de los programas LLaMA logró una precisión del 60 por ciento ni siquiera en las preguntas más simples.

READ  Índice - Ciencia - Hay una explicación científica de por qué el pan siempre cae junto a la mantequilla

Todo se aprende mediante inteligencia artificial
Todo se aprende mediante inteligencia artificial
Imagen: Imágenes de depósito

Los modelos de IA tienen una debilidad obstinada que va más allá de una simple tontería. Es decir, sus respuestas a las preguntas más simples pueden ser inexactas. Por ejemplo, en el caso de los acertijos de ajedrez, suele suceder que la tarea se “resuelve” con movimientos irregulares.

La propaganda de mierda oculta la sordera de la inteligencia artificial

Lo preocupante es que la mayoría de los usuarios quedan tan impresionados por el conocimiento de la IA que tienden a olvidar sus errores. Una encuesta reveló que la gente estima que la tasa de respuestas incorrectas en los modelos de IA oscila entre el 10% y el 40%, mucho menos que la respuesta real. Los expertos creen que la solución puede ser cambiar la adaptación de los chatbots.

Simplemente necesitan ser entrenados para no «querer» responder a cualquier costo las preguntas que reciben. No «sienta el problema» si tienen que pedir perdón. No sé la respuesta a esa pregunta. El problema es que esto no interesa a las empresas que desarrollan inteligencia artificial. Si sus productos admitieran que sólo pueden “responder” la mitad de las preguntas sin sentido que les hacen, el revuelo en torno a la IA disminuiría. Puede que esto no sea la cosa maravillosamente misteriosa que se presenta en los trailers sin sentido.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Scroll al inicio