noviembre 17, 2025

Un estudio revela que la inteligencia artificial facilita la deshonestidad

1694464649396
Número de Vistas: 459

Una investigación publicada en la revista Nature demuestra que las personas tienden a comportarse de manera menos ética cuando delegan decisiones en herramientas de inteligencia artificial como ChatGPT.

 

El estudio, realizado por investigadores del Instituto Max Planck para el Desarrollo Humano y la Universidad de Duisburgo-Essen, encontró que la IA funciona como un «colchón psicológico» que reduce la sensación de responsabilidad moral en los usuarios.

 

Los investigadores realizaron experimentos con diferentes niveles de intermediación. En uno de ellos, los participantes lanzaban un dado y reportaban el resultado para obtener ganancias. Cuando lo hacían directamente, el 95% era honesto. Sin embargo, cuando debían indicarle a la IA qué reglas seguir, la honestidad bajó al 75%.

El Impacto de la Inteligencia Artificial en el Empleo y el Trabajo: Cómo  Prepararse para el Futuro - metaverso.pro

El cambio más drástico ocurrió cuando se permitía dar instrucciones ambiguas. Al pedirle a la IA «maximizar ganancias» en lugar de «maximizar precisión», más del 84% de los participantes hizo trampa y la honestidad cayó hasta el 12%.

 

Los investigadores identificaron que la delegación crea una «distancia moral» que permite a las personas justificar comportamientos poco éticos. Este efecto se amplifica cuando las interfaces permiten instrucciones vagas en lugar de órdenes explícitas.

 

El estudio también incluyó escenarios de evasión fiscal, obteniendo resultados similares. Los expertos señalan que los sistemas de IA están programados para ser complacientes y no juzgan las peticiones poco éticas, lo que facilita este tipo de comportamiento.

Cómo Prepararse para Trabajar en IA - KSchool, tu centro de estudios  especializado en internet

Los autores advierten sobre la necesidad de mejorar el diseño de estas plataformas, especialmente con la llegada de agentes de IA autónomos. Aunque los chatbots tienen restricciones para contenidos claramente dañinos, las peticiones ambiguas resultan difíciles de detectar.

 

 

Fuente: Primicias

Exprésate Morona Santiago

Primer Medio de Comunicación Digital de la Provincia

Macas – Ecuador

Inmobiliaria Nativa