Marco Ético de IA
Lectura recomendada: ~12 minutos
Documento maestro institucional
Política, protocolo y marco de gobernanza
1. Objeto
El presente documento regula el uso de herramientas de inteligencia artificial como apoyo a la práctica psicológica, especialmente en tareas de análisis de casos clínicos, formulación comprensiva, definición de planes terapéuticos, seguimiento de proceso y sugerencia de estrategias de intervención.
Su propósito es asegurar que toda utilización de inteligencia artificial se realice bajo estándares de ética clínica, seguridad, supervisión profesional, protección de datos, responsabilidad humana y trazabilidad institucional.
2. Principio general
La inteligencia artificial será utilizada exclusivamente como asistente clínico y no como reemplazo del juicio profesional del psicólogo. Toda salida generada por la herramienta tendrá carácter de apoyo técnico, hipótesis de trabajo, borrador o sugerencia, y deberá ser revisada, contextualizada y validada por un profesional responsable antes de influir en decisiones clínicas.
3. Ámbito de aplicación
Este marco se aplica a:
- psicólogos clínicos;
- supervisores clínicos;
- coordinadores de programas;
- equipos interdisciplinarios de salud mental;
- administradores y desarrolladores de plataformas clínicas;
- instituciones que integren IA en procesos de atención o apoyo clínico.
4. Definiciones
- Inteligencia artificial asistente clínica: sistema que apoya tareas de síntesis, análisis, estructuración, generación de hipótesis o propuesta de opciones clínicas, sin autonomía decisional final.
- Salida de IA: cualquier resumen, recomendación, formulación, clasificación, hipótesis o borrador generado por la herramienta.
- Profesional responsable: psicólogo o supervisor que revisa, valida, modifica o descarta la salida de IA y asume la responsabilidad profesional final.
- Caso de alto riesgo: situación clínica que involucra suicidio, autolesión, abuso sexual, violencia, psicosis, maltrato, deterioro severo, crisis aguda, riesgo para terceros, contexto forense o decisiones institucionales sensibles.
5. Principios rectores
5.1 Primacía del bienestar del paciente
Toda utilización de IA debe orientarse al beneficio clínico, protección de la dignidad, cuidado del paciente y reducción de riesgo.
5.2 Supervisión humana obligatoria
La IA no podrá operar como decisor autónomo. Toda salida con impacto clínico deberá ser revisada por un profesional competente.
5.3 Responsabilidad profesional indelegable
La responsabilidad ética, clínica y legal recae en el profesional tratante y en la institución que implementa la herramienta, nunca en la IA.
5.4 Uso auxiliar y no sustitutivo
La IA no reemplaza la entrevista clínica, la observación, la evaluación psicológica, el razonamiento clínico ni la relación terapéutica.
5.5 Prudencia y precaución
Toda salida de IA se considerará inicialmente como tentativa y falible. No podrá asumirse como verdadera por su apariencia técnica o por provenir de una plataforma avanzada.
5.6 Confidencialidad y protección de datos
El uso de IA deberá respetar el secreto profesional, la minimización de datos, la seguridad de la información y la finalidad legítima del tratamiento de datos clínicos.
5.7 Justicia y no discriminación
Se deberá controlar activamente el riesgo de sesgos, estigmatización o menor precisión en determinados grupos o contextos.
5.8 Transparencia y trazabilidad
La institución deberá poder identificar cuándo se utilizó IA, para qué, con qué alcance y qué validación clínica se efectuó.
6. Objetivos legítimos de uso
La IA podrá utilizarse para:
- organizar antecedentes clínicos;
- resumir entrevistas o información ya recogida;
- apoyar formulaciones clínicas tentativas;
- identificar factores predisponentes, precipitantes, mantenedores y protectores;
- sugerir hipótesis comprensivas o diferenciales;
- proponer objetivos terapéuticos;
- sugerir estrategias de intervención coherentes con un modelo definido;
- apoyar notas clínicas, devoluciones, informes preliminares o planes de trabajo;
- facilitar seguimiento de progreso y monitoreo clínico.
7. Usos permitidos
Se consideran usos permitidos:
- apoyo en síntesis de información;
- estructuración de análisis de caso;
- generación de borradores técnicos;
- sugerencia de focos terapéuticos;
- apoyo en planificación de sesiones;
- propuestas de indicadores de cambio;
- apoyo en formulación de preguntas clínicas relevantes.
8. Usos restringidos
Sólo podrán realizarse con revisión reforzada, criterios adicionales de resguardo y eventual supervisión:
- análisis de riesgo suicida;
- casos con abuso sexual, maltrato o violencia;
- descompensaciones graves;
- pacientes con trastornos severos o alta complejidad;
- población infantojuvenil en situaciones sensibles;
- recomendaciones que puedan afectar permanencia escolar, medidas institucionales o decisiones críticas;
- contextos forenses, periciales o judicializables.
9. Usos prohibidos
Queda prohibido utilizar IA para:
- emitir diagnósticos definitivos de forma autónoma;
- tomar decisiones automáticas de alta, derivación o exclusión;
- concluir por sí sola la presencia o ausencia de suicidio, abuso, psicosis, TEA u otros cuadros complejos;
- reemplazar el criterio clínico humano;
- entregar indicaciones como si la IA fuese autoridad clínica autónoma;
- procesar datos identificables en herramientas no autorizadas;
- simular certeza clínica donde existe incertidumbre;
- generar intervenciones manipulativas, coercitivas o clínicamente imprudentes.
10. Semáforo institucional de riesgo
Nivel verde
Usos de bajo riesgo, admisibles con supervisión ordinaria:
- resumen de antecedentes;
- organización de información;
- borradores de notas clínicas;
- sugerencia de objetivos terapéuticos generales;
- propuestas psicoeducativas iniciales.
Nivel amarillo
Usos de riesgo moderado, admisibles con revisión más cuidadosa:
- formulación clínica asistida;
- hipótesis diferenciales;
- secuenciación de focos terapéuticos;
- sugerencia de estrategias de intervención por modelo;
- integración de factores familiares, escolares o sistémicos.
Nivel rojo
Usos de alto riesgo, no admisibles como base de decisión autónoma:
- suicidio o autolesión;
- abuso sexual o maltrato;
- violencia grave;
- psicosis o desorganización severa;
- decisiones de derivación urgente;
- exclusión de tratamiento;
- conclusiones diagnósticas cerradas;
- decisiones críticas de alto impacto clínico o institucional.
11. Reglas para el ingreso de información
Antes de utilizar IA, el profesional deberá:
- ingresar sólo la información estrictamente necesaria;
- eliminar nombre completo, documento de identidad, dirección y otros identificadores directos cuando sea posible;
- evitar exponer datos especialmente sensibles si no son indispensables;
- usar descripción funcional y clínica antes que identificación personal;
- verificar que la herramienta esté autorizada por la institución.
12. Reglas para la formulación de solicitudes a la IA
La consulta a la IA deberá solicitar expresamente:
- distinguir hechos reportados de hipótesis;
- identificar vacíos de información;
- evitar lenguaje categórico;
- presentar alternativas razonables;
- señalar riesgos a monitorear;
- proponer opciones y no decisiones definitivas.
Ejemplo institucional de solicitud:
Analiza este caso diferenciando: datos observados, hipótesis clínicas tentativas, factores de riesgo y protectores, vacíos de información, objetivos terapéuticos posibles y estrategias de intervención a validar por el profesional.
13. Validación clínica obligatoria
Toda salida de IA deberá ser revisada por el profesional responsable, quien evaluará:
- fidelidad respecto de los datos del caso;
- coherencia clínica;
- pertinencia evolutiva, cultural y contextual;
- riesgo de sobregeneralización;
- presencia de errores, sesgos o sobreinterpretaciones;
- compatibilidad con la evidencia, el marco teórico y la prudencia clínica.
El profesional podrá aceptar parcialmente, modificar o descartar completamente la salida.
14. Regla de no automatismo
Ninguna salida de IA podrá incorporarse automáticamente al expediente, al plan terapéutico o a una decisión clínica sin mediación profesional explícita.
15. Procedimiento especial para casos de alto riesgo
En casos de alto riesgo, la IA sólo podrá utilizarse para:
- ordenar información;
- recordar elementos de evaluación;
- apoyar la documentación;
- listar factores de riesgo y protección;
- estructurar aspectos a revisar por el clínico.
No podrá utilizarse como fundamento único para decisiones de contención, denuncia, derivación urgente, hospitalización, exclusión o alta.
16. Cláusula especial para infancia y adolescencia
En población infantojuvenil, toda sugerencia generada por IA deberá interpretarse con especial cautela, considerando desarrollo evolutivo, apego, neurodivergencia, contexto familiar, entorno escolar, antecedentes de trauma y riesgo de etiquetación prematura.
17. Transparencia frente al paciente
Cuando el uso de IA sea clínicamente relevante, el paciente o su representante deberá ser informado de que el profesional puede utilizar herramientas de IA como apoyo técnico, bajo supervisión humana y con resguardo de confidencialidad.
18. Texto breve de consentimiento
Texto sugerido
Durante su proceso de atención, el profesional tratante podría utilizar herramientas tecnológicas de inteligencia artificial como apoyo para organizar información, revisar hipótesis clínicas o estructurar propuestas de intervención. Estas herramientas no sustituyen la evaluación profesional ni toman decisiones por sí solas. Toda recomendación será revisada y validada por el/la psicólogo/a tratante.
19. Responsabilidades por actor
| Actor |
Responsabilidad principal |
| Psicólogo tratante |
revisar, validar, modificar o descartar toda salida de IA |
| Supervisor clínico |
apoyar revisión de casos complejos o de alto riesgo |
| Institución |
definir políticas, capacitar, auditar y supervisar el uso |
| Equipo técnico |
asegurar seguridad, logs, restricciones y trazabilidad |
| Plataforma |
impedir automatismos indebidos y mostrar advertencias |
| Dirección clínica |
aprobar criterios de uso y velar por cumplimiento |
20. Gobernanza institucional
La institución deberá contar con:
- una política formal de uso;
- clasificación de usos por nivel de riesgo;
- criterios de aprobación de herramientas;
- responsables clínicos y técnicos definidos;
- protocolos de auditoría y revisión;
- registro de incidentes;
- plan de respuesta ante errores o vulneraciones;
- revisión periódica de sesgos y desempeño.
21. Requisitos de diseño para plataformas como Psimetría
La plataforma deberá:
- registrar el uso de la IA;
- distinguir claramente entre sugerencia y decisión validada;
- impedir lenguaje concluyente inapropiado;
- bloquear o advertir usos de alto riesgo;
- exigir confirmación humana antes de guardar recomendaciones como oficiales;
- segmentar roles y permisos;
- mantener trazabilidad de cambios;
- proteger datos mediante controles técnicos adecuados.
22. Reglas de interfaz recomendadas
La plataforma no debería mostrar etiquetas como:
- Diagnóstico final
- Tratamiento indicado
- Conclusión definitiva
Debería usar fórmulas como:
- Hipótesis clínicas sugeridas
- Objetivos terapéuticos posibles
- Estrategias a validar por el profesional
- Aspectos a profundizar en evaluación
- Riesgos a monitorear
23. Competencias mínimas del profesional
Todo profesional que use IA deberá conocer:
- límites y errores frecuentes de la IA;
- sesgos y alucinaciones;
- protección de datos y confidencialidad;
- criterios de revisión clínica;
- manejo de casos de alto riesgo;
- registro y trazabilidad del uso.
24. Registro mínimo del uso
Cuando la IA influya de manera relevante en el trabajo clínico, deberá registrarse:
- fecha;
- finalidad del uso;
- tipo de tarea solicitada;
- nivel de riesgo del caso;
- síntesis de la salida;
- validación, modificación o descarte por el clínico;
- impacto en la formulación o plan.
25. Gestión de incidentes
Cualquier incidente relacionado con:
- error clínico significativo;
- recomendación peligrosa;
- vulneración de confidencialidad;
- sesgo grave;
- uso no autorizado;
- falla técnica con impacto clínico,
deberá ser reportado y revisado según protocolo institucional.
26. Matriz breve de riesgos prioritarios
| Riesgo |
Nivel |
Mitigación |
| Diagnóstico automatizado indebido |
Alto |
prohibición expresa y revisión humana obligatoria |
| Vulneración de confidencialidad |
Alto |
desidentificación, sistemas autorizados y control de acceso |
| Sobreconfianza del profesional |
Alto |
capacitación y validación explícita |
| Sesgo o estigmatización |
Alto |
auditoría, revisión periódica y corrección continua |
| Recomendaciones genéricas o erróneas |
Medio/Alto |
prompts estructurados y revisión clínica |
| Uso en casos críticos sin supervisión |
Crítico |
restricción y escalamiento obligatorio |
| Opacidad del proceso |
Medio/Alto |
trazabilidad y registro institucional |
27. Cláusula de responsabilidad final
La inteligencia artificial no sustituye la responsabilidad clínica humana. Toda decisión diagnóstica, terapéutica, ética o institucional deberá ser tomada por un profesional competente, considerando la singularidad del caso, el contexto y los estándares de buena práctica.
28. Cláusula final institucional
La institución reconoce el valor de la inteligencia artificial como herramienta de apoyo para fortalecer la calidad, coherencia y eficiencia de la práctica clínica. Sin embargo, establece que su uso sólo será legítimo cuando se mantenga subordinado al juicio profesional, a la ética clínica, a la protección del paciente y a la responsabilidad humana indelegable.