La inteligencia artificial (IA) puede predecir tus creencias políticas

29 de abril de 2024

Estudio que investiga la capacidad de la tecnología de reconocimiento facial y de los evaluadores humanos para predecir la orientación política de las personas a partir de imágenes de rostros sin expresión. Los investigadores tomaron imágenes faciales estandarizadas de 591 participantes en un laboratorio, controlando cuidadosamente el entorno y las condiciones en las que se fotografiaba el rostro de cada participante.

Tanto los evaluadores humanos como un algoritmo de reconocimiento facial pudieron predecir la orientación política de los participantes, con un coeficiente de correlación de r = .21 para humanos y r = .22 para el algoritmo. Estas predicciones, aunque modestas fueron significativas y se hicieron independientemente de la edad, el género y la etnia de los participantes. Curiosamente, cuando el algoritmo utilizó información sobre la edad, el género y la etnia de los participantes, su precisión predictiva aumentó a r = .31.

El estudio sugiere que hay una conexión entre las características faciales inherentes y las inclinaciones políticas, las cuales están en gran medida fuera del control del individuo e implica que los individuos tenemos menos control sobre nuestra privacidad.

El algoritmo estudiado aquí, con una precisión de predicción de r = 0,22, no permite determinar de manera concluyente las opiniones políticas de uno, de la misma manera que las entrevistas de trabajo, con una precisión de predicción de r = 0,20, no pueden determinar de manera concluyente el desempeño laboral futuro. Sin embargo, incluso los algoritmos moderadamente precisos pueden tener un impacto tremendo cuando se aplican a grandes poblaciones en contextos de alto riesgo. Por ejemplo, incluso estimaciones crudas de los rasgos de carácter de las personas pueden mejorar significativamente la eficiencia de las campañas de persuasión masiva online.

Estos hallazgos tienen implicaciones significativas para la privacidad, la regulación de la tecnología de reconocimiento facial y la comprensión de los orígenes y consecuencias de la orientación política. Los académicos, el público y los políticos deberían tomar nota y considerar políticas más estrictas que regulen la grabación y el procesamiento de imágenes faciales.

Comentado en Psypost

Por Alfredo Calcedo 16 de junio de 2025
El próximo martes, día 17 de junio a las 18 horas, el profesor Alfredo Calcedo Barba, en una nueva sesión del programa MentorMIR, analizará la “Responsabilidad profesional de médico residente de Psiquiatría” donde se abordarán las situaciones que suelen ser más conflictivas en la toma de decisiones clínicas y sus implicaciones legales. Recordaros que estas sesiones se llevan a cabo en formato online desde el campus ( https://campus.alfredocalcedo.net/login/index.php )
Por Alfredo Calcedo 16 de junio de 2025
Las autoridades sanitarias del Reino Unido aconsejan a las mujeres que utilizan “inyecciones para adelgazar” que utilicen un método anticonceptivo eficaz mientras toman estos medicamentos y, en algunos casos, hasta dos meses entre la interrupción del medicamento y el intento de quedar embarazada. Estos medicamentos no deben tomarse durante el embarazo, si se está intentando quedar embarazada o durante la lactancia. Cualquier mujer que se quede embarazada mientras los esté usando debe consultar con su médico y suspender el medicamento lo antes posible. Esto se debe a que no existen suficientes datos de seguridad para determinar si tomar el medicamento podría causar daño al bebé. Los métodos anticonceptivos eficaces incluyen métodos orales (la píldora) y no orales (el implante, el DIU o los preservativos). Si le recetan Mounjaro (tirzepatida), utilice un método anticonceptivo de barrera y no confíe en los anticonceptivos orales. Mounjaro puede reducir la eficacia de los anticonceptivos orales en personas con sobrepeso. Comentado en 20minutos.
Por Alfredo Calcedo 16 de junio de 2025
La inteligencia artificial (IA) generativa, probablemente transformará la psiquiatría forense, impulsando avances y nuevos desafíos para el campo. Una posible consecuencia de esta tecnología es que se utilizará para ayudar a los simuladores a aprender y fingir los síntomas psiquiátricos. En este estudio , se solicitó al chatbot de IA ChatGPT que proporcionara información sobre la defensa por demencia y la psicosis, y que utilizara esta información para ayudar al usuario a simular una enfermedad psicótica y evitar consecuencias legales. Descubrimos que ChatGPT 3.5 demostró una comprensión relativamente matizada de los síntomas típicos de la psicosis y que podría traducir este conocimiento en una guía práctica sobre cómo explotar el sistema de salud mental para obtener beneficios secundarios. Estos hallazgos sugieren que, si bien la tecnología actual presenta limitaciones significativas, los psiquiatras forenses deben estar preparados para su creciente sofisticación y las posibles consecuencias en las evaluaciones de simulación.
Más entradas