Maestro y Sociedad e-ISSN 1815-4867

Volumen 23 Número 2 Año 2026

Artículo original

Del protocolo al algoritmo: repensando el debriefing psicológico con herramientas digitales

From Protocol to Algorithm: Rethinking Psychological Debriefing with Digital Tools

Do protocolo ao algoritmo: repensando o debriefing psicológico com ferramentas digitais

Mayra Paola Cortez Ocaña *, https://orcid.org/0000-0002-5731-1323

David Stefano Bastidas Meza, https://orcid.org/0009-0002-1942-552X

Xavier Patricio Bejarano Gavilanes, https://orcid.org/0009-0000-8871-585X

Juan Carlos Saltos Falconí, https://orcid.org/0009-0003-2126-2640

Universidad Regional Autónoma de Los Andes, Ecuador

*Autor para correspondencia. email docentetp111@uniandes.edu.ec

Para citar este artículo: Cortez Ocaña, M. P., Bastidas Meza, D. S., Bejarano Gavilanes, X. P. y Saltos Falconí, J. C. (2026). Aplicación educativa para la introducción a la asignatura Enfermería Ginecobstétrica. Maestro y Sociedad, 23(2), 1315-1325. https://maestroysociedad.uo.edu.cu

RESUMEN

Introducción: Este artículo de revisión teórica analizó la evolución del debriefing psicológico desde su concepción clásica hasta su potencial adaptación mediante herramientas digitales, especialmente aquellas basadas en inteligencia artificial (IA). Materiales métodos: Para ello se revisaron los fundamentos del debriefing, sus aplicaciones clínicas y las críticas contemporáneas que cuestionan su eficacia universal, es así que en un escenario de avances tecnológicos acelerados, se analizan nuevas formas de intervención post-crisis asistidas por IA como los chatbots empáticos, sistemas de análisis de lenguaje natural y plataformas digitales de primeros auxilios psicológicos. Resultados: En este estudio, se identificaron ventajas como la disponibilidad inmediata, el acceso en zonas remotas y la posibilidad de personalizar contenidos, pero también se discutieron riesgos significativos relacionados con la deshumanización del proceso, la privacidad de los datos emocionales y la falta de criterio clínico en sistemas automatizados. Discusión: A partir de la revisión, se propone una mirada integradora donde la tecnología no sustituya al profesional humano, sino que funcione como una herramienta complementaria bajo marcos éticos, supervisión clínica y sensibilidad cultural. Conclusiones: Esta reflexión invita a repensar el lugar del debriefing en la era digital, abriendo el debate sobre sus múltiples posibilidades y la responsabilidad ética frente al sufrimiento humano.

Palabras clave: debriefing psicológico, inteligencia artificial, intervención en crisis, salud mental digital.

ABSTRACT

Introduction: This theoretical review article analyzed the evolution of psychological debriefing from its classical conception to its potential adaptation through digital tools, especially those based on artificial intelligence (AI). Materials and Methods: To this end, the foundations of debriefing, its clinical applications, and contemporary criticisms questioning its universal efficacy were reviewed. Thus, in a scenario of accelerated technological advances, new forms of AI-assisted post-crisis intervention, such as empathetic chatbots, natural language processing systems, and digital platforms for psychological first aid, were analyzed. Results: This study identified advantages such as immediate availability, access in remote areas, and the possibility of personalized content. However, significant risks related to the dehumanization of the process, the privacy of emotional data, and the lack of clinical judgment in automated systems were also discussed. Discussion: Based on this review, an integrative approach is proposed where technology does not replace the human professional but rather functions as a complementary tool within ethical frameworks, clinical supervision, and cultural sensitivity. Conclusions: This reflection invites us to rethink the role of debriefing in the digital age, opening a debate on its multiple possibilities and the ethical responsibility in the face of human suffering.

Keywords: psychological debriefing, artificial intelligence, crisis intervention, digital mental health.

Resumo

Introdução: Este artigo de revisão teórica analisou a evolução do debriefing psicológico, desde sua concepção clássica até sua potencial adaptação por meio de ferramentas digitais, especialmente aquelas baseadas em inteligência artificial (IA). Materiais e Métodos: Para tanto, foram revisados os fundamentos do debriefing, suas aplicações clínicas e as críticas contemporâneas que questionam sua eficácia universal. Assim, em um cenário de avanços tecnológicos acelerados, foram analisadas novas formas de intervenção pós-crise assistidas por IA, como chatbots empáticos, sistemas de processamento de linguagem natural e plataformas digitais para primeiros socorros psicológicos. Resultados: Este estudo identificou vantagens como disponibilidade imediata, acesso em áreas remotas e a possibilidade de conteúdo personalizado. No entanto, também foram discutidos riscos significativos relacionados à desumanização do processo, à privacidade dos dados emocionais e à falta de julgamento clínico em sistemas automatizados. Discussão: Com base nesta revisão, propõe-se uma abordagem integrativa na qual a tecnologia não substitui o profissional humano, mas funciona como uma ferramenta complementar dentro de marcos éticos, supervisão clínica e sensibilidade cultural. Conclusões: Esta reflexão convida-nos a repensar o papel do debriefing na era digital, abrindo um debate sobre as suas múltiplas possibilidades e a responsabilidade ética face ao sofrimento humano.

Palavras-chave: debriefing psicológico, inteligência artificial, intervenção em crises, saúde mental digital.

Recibido: 5/2/2026 Aprobado: 28/3/2026

Introducción

El ser humano, ante el dolor y la catástrofe, busca comprender, compartir y reconstruir sentido (Carmen & Stephanie, 2022). En este proceso, las intervenciones psicológicas post-crisis han intentado, desde hace décadas, brindar contención emocional y acompañamiento en los primeros momentos tras un evento traumático. Una de las técnicas más conocidas y utilizadas con este fin ha sido el debriefing psicológico, una intervención breve, estructurada, orientada a procesar las reacciones emocionales tras incidentes críticos. Su origen se remonta a contextos militares y operativos, donde se hacía necesario canalizar rápidamente el impacto psicológico de situaciones extremas (Cabas, 2021). Con el tiempo, el debriefing se expandió a otros escenarios: desastres naturales, emergencias comunitarias, hospitales, escuelas, entre otros.

En su versión más difundida, el modelo de Critical Incident Stress Debriefing (CISD), propuesto por Mitchell en los años 80, plantea una estructura en siete fases que busca que las personas relaten lo ocurrido, expresen sus emociones, identifiquen sus reacciones físicas y cognitivas, y reciban información psicoeducativa sobre respuestas normales al trauma (Kononovich, s.f.). La promesa era clara: prevenir el desarrollo de trastornos psicológicos mayores como el Trastorno de Estrés Postraumático (TEPT). Sin embargo, con el pasar de los años, investigaciones más rigurosas comenzaron a cuestionar esa promesa. ¿Es el debriefing tan eficaz como se pensó al inicio? ¿Se adapta realmente a los distintos perfiles de personas afectadas por una crisis? Y más aún, ¿podría, en algunos casos, ser contraproducente?

Estas preguntas dieron paso a una mirada analítica sobre el debriefing, especialmente cuando se aplica de forma protocolar, sin considerar el contexto, la voluntad o el estado emocional de las personas. Algunos estudios, como los de Rose et al. (2002), e incluso recomendaciones de organismos como el National Institute for Health and Care Excellence (NICE), han advertido sobre los posibles efectos no deseados de esta técnica si se implementa sin una base empática, flexible y clínica (Velasco Rodríguez, 2024). No se trata de rechazar la idea de brindar apoyo temprano, sino de cuestionar la rigidez con la que, a veces, se intenta "ordenar el caos emocional" de forma demasiado rápida o superficial.

Siguiendo esta línea, el mundo ha cambiado, pues la tecnología, especialmente en los últimos diez años, ha transformado la forma en la que nos relacionamos, accedemos a la información y buscamos ayuda. En el ámbito de la salud mental, esta transformación ha sido especialmente visible tras la pandemia del COVID-19, donde se aceleraron procesos de digitalización que ya venían en marcha. Consultas virtuales, terapias online, aplicaciones móviles para el manejo de la ansiedad o la depresión, foros de apoyo entre pares y, más recientemente, herramientas basadas en inteligencia artificial (IA), han comenzado a formar parte del ecosistema de la atención psicológica (Pérez Hurtado, 2025).

En esta nueva realidad, el debriefing también se ha visto interpelado, pues ya no solo se trata de preguntarse si el modelo tradicional sigue siendo válido, sino si es posible y deseable adaptarlo a entornos digitales. ¿Puede un chatbot facilitar un proceso de debriefing emocional? ¿Qué papel podrían jugar los algoritmos en la detección temprana de malestar psicológico tras una crisis? ¿Cómo garantizar que la intervención digital respete la dignidad, el ritmo emocional y la privacidad de la persona?

Algunos desarrollos tecnológicos recientes como Woebot o Wysa, e incluso plataformas de primeros auxilios psicológicos digitales desarrolladas por gobiernos y ONGs, han demostrado que es posible generar espacios de contención inmediata a través de interfaces digitales. Estas herramientas suelen utilizar procesamiento de lenguaje natural para interactuar con los usuarios, ofrecer ejercicios de autorregulación emocional, monitorear el estado de ánimo e incluso derivar a servicios clínicos si se detectan señales de riesgo (Ramírez Oviedo et al., s.f.). Pero también es cierto que estas soluciones, aunque innovadoras, enfrentan limitaciones importantes: no entienden el silencio, no interpretan el lenguaje no verbal y no pueden responder a una lágrima o a una mirada desconsolada.

Por este motivo, este artículo no pretende ofrecer una fórmula tecnológica para el debriefing ni una apología de la inteligencia artificial como solución mágica. Al contrario, se plantea una revisión crítica y reflexiva sobre cómo estas herramientas podrían, en ciertos casos, complementar la labor del profesional de la salud mental, especialmente en contextos donde el tiempo, la distancia o la falta de recursos humanos dificultan una respuesta humana inmediata. No se intenta elegir entre lo humano y lo digital, sino encontrar formas responsables, éticas y culturalmente sensibles de integrarlos.

Este trabajo también se interesa por pensar el debriefing no como una técnica cerrada, sino como una práctica que debe adaptarse a los cambios sociales, culturales y tecnológicos de nuestro tiempo. Tal vez el debriefing del futuro no se parezca al que fue concebido hace 40 años. Quizá combine presencia humana con herramientas digitales, empatía con análisis de datos y protocolos con escucha activa real. Para llegar a ese punto, hace falta investigación, diálogo interdisciplinario y, sobre todo, humildad clínica.

La presente ponencia se propuso revisar el estado actual del debriefing psicológico, analizar sus cruces con las tecnologías emergentes, especialmente la inteligencia artificial, y reflexionar sobre los retos, tanto técnicos como humanos, que ello implica. Estamos, posiblemente, ante una oportunidad para repensar nuestras formas de acompañar el dolor humano en tiempos de cambio, pero esa oportunidad requiere criterio clínico, conciencia ética y una mirada profundamente humana, incluso si se escribe en código.

Materiales y métodos

Este artículo se desarrolló bajo el enfoque de una revisión teórica narrativa, con el objetivo de analizar críticamente la evolución del debriefing psicológico y su vinculación con las herramientas tecnológicas emergentes, particularmente aquellas basadas en inteligencia artificial. La elección de este tipo de revisión respondió a la necesidad de integrar conocimientos provenientes de distintas áreas (psicología clínica, intervención en crisis, ética profesional y tecnología aplicada a la salud mental) para generar una reflexión comprensiva y articulada sobre el tema.

El proceso de recopilación de información se llevó a cabo entre abril y junio de 2025, a través de una búsqueda sistemática en diversas bases de datos académicas reconocidas, como Scopus, PubMed, PsycINFO, Google Scholar y Redalyc. Se emplearon combinaciones de palabras clave en inglés y español, tales como "psychological debriefing", "critical incident stress debriefing", "mental health technology", "artificial intelligence in mental health", "post-crisis intervention", "chatbots and emotional support", "debriefing psicológico", "intervención en crisis" e "inteligencia artificial en salud mental", entre otras.

Se establecieron los siguientes criterios de inclusión para la selección de los textos revisados:

Se excluyeron aquellos documentos que:

En total, se revisaron aproximadamente 65 fuentes primarias y secundarias, de las cuales se seleccionaron 43 para su análisis e integración en el cuerpo del artículo, priorizando aquellas que ofrecían una base teórica sólida, datos empíricos actualizados o reflexiones éticas pertinentes. Se dio especial atención a las publicaciones que abordaban el uso de tecnologías durante la pandemia por COVID-19, debido a que este periodo representó un punto de inflexión en la digitalización de los servicios de salud mental.

Para la organización del contenido, se optó por una estructura temática que permitiera una lectura fluida y progresiva del objeto de estudio. Primero, se abordó la evolución histórica y conceptual del debriefing psicológico, sus aplicaciones y controversias. Luego, se exploraron los aportes y retos principales del uso de inteligencia artificial en salud mental, para finalmente discutir cómo ambas dimensiones pueden o no articularse en el diseño de intervenciones futuras. Este análisis temático permitió no solo presentar información descriptiva, sino también establecer relaciones críticas entre teorías, contextos de aplicación y dilemas bioéticos.

En esta revisión se aplicó, igualmente, una mirada integradora y crítica desde una perspectiva clínico-humanista, considerando que el uso de tecnologías en procesos de acompañamiento emocional no puede desligarse del componente ético, relacional y cultural que define toda intervención psicológica. El análisis de los textos se realizó de forma cualitativa, prestando atención no solo a los resultados o conclusiones, sino también a los enfoques teóricos, posicionamientos éticos y supuestos epistemológicos de cada autor o publicación.

Cabe destacar que esta revisión no buscó medir la eficacia de intervenciones específicas ni comparar modelos técnicos entre sí, sino más bien ofrecer un panorama comprensivo y actualizado sobre el estado actual del debriefing y su potencial vínculo con herramientas tecnológicas. En ese sentido, las conclusiones derivadas tienen un carácter exploratorio, reflexivo y propositivo, orientadas a abrir caminos para investigaciones futuras y posibles desarrollos clínicos adaptados a los retos del siglo XXI.

Resultados

El debriefing psicológico: fundamentos clínicos, evolución histórica y controversias actuales

El debriefing psicológico se ha definido como una técnica estructurada que busca ofrecer contención emocional a personas que han estado expuestas a eventos traumáticos o altamente estresantes. Aunque en su forma actual se le asocia principalmente al modelo de Critical Incident Stress Debriefing (CISD), sus raíces pueden rastrearse hasta prácticas informales de acompañamiento emocional en contextos bélicos del siglo XX, donde soldados compartían sus experiencias tras los combates como una forma de descarga colectiva. Jeffrey Mitchell formalizó este enfoque en 1983 con el CISD, integrándolo luego al sistema más amplio de Critical Incident Stress Management (CISM), diseñado específicamente para equipos de respuesta a emergencias como paramédicos, policías, militares y bomberos (González-Naranjo et al., 2025).

El CISD se basa en una intervención grupal, no terapéutica, que se lleva a cabo entre 24 y 72 horas después del incidente crítico. Se compone de siete fases: introducción, hechos, pensamientos, reacciones emocionales, síntomas, enseñanza y cierre. El objetivo general es ayudar a los participantes a estructurar cognitivamente la experiencia, identificar sus respuestas normales al estrés y prevenir la aparición de psicopatología posterior (Alemán, 2023). Aunque el enfoque enfatiza que no es una terapia, en la práctica se ha utilizado muchas veces como sustituto de una intervención psicológica formal, especialmente en contextos institucionales donde se prioriza la rapidez operativa.

Durante las décadas de 1990 y 2000, el debriefing se convirtió en una práctica estándar en muchos países occidentales, aplicado tanto en intervenciones post-desastres como en instituciones hospitalarias, educativas o incluso penitenciarias. Sin embargo, su uso extendido fue acompañado por un creciente escrutinio empírico. Varios estudios comenzaron a demostrar que el debriefing no necesariamente prevenía el desarrollo de trastornos como el Trastorno de Estrés Postraumático (TEPT), e incluso, en ciertos casos, podía intensificar síntomas cuando se aplicaba sin consentimiento pleno o cuando se forzaba la verbalización del trauma en etapas demasiado tempranas (Ramírez et al., 2024).

El metaanálisis de Rose et al. (2002), que incluyó 11 estudios controlados aleatorizados, concluyó que no existía evidencia significativa que respaldara la eficacia del debriefing psicológico como medida preventiva del TEPT. Esta revisión tuvo un fuerte impacto en la comunidad científica y motivó que instituciones como el National Institute for Health and Care Excellence (NICE) en el Reino Unido dejaran de recomendar el debriefing como práctica estándar. Desde entonces, la técnica ha sido objeto de múltiples reformulaciones. Algunos expertos han propuesto su uso únicamente en contextos grupales de cohesión preexistente (como equipos de trabajo); otros han planteado que debe ser opcional, no obligatorio, y con un enfoque más centrado en la escucha y validación emocional que en la estructuración cognitiva (España Coral et al., 2024).

Se ha comenzado también a distinguir entre debriefing psicológico y defusing, siendo este último una intervención aún más breve e inmediata, centrada en la estabilización emocional y la prevención del aislamiento tras el evento crítico. En América Latina, pese a las advertencias internacionales, el debriefing continúa siendo ampliamente utilizado, en parte debido a la falta de protocolos alternativos formalizados, pero también por la necesidad urgente de ofrecer contención en situaciones donde no existe acceso rápido a servicios clínicos especializados (Escribano Sánchez, 2021).

Tecnologías emergentes e inteligencia artificial en salud mental: entre el acceso y la automatización

La salud mental digital ha emergido como uno de los campos de mayor innovación en la psicología contemporánea. El desarrollo de herramientas tecnológicas para la evaluación, monitoreo y acompañamiento psicológico ha venido creciendo sostenidamente desde inicios del siglo XXI, pero fue durante la pandemia de COVID-19 que este crecimiento se volvió exponencial (Lun-Álvarez et al., 2025). La necesidad de mantener el distanciamiento físico llevó a que miles de profesionales adoptaran plataformas de telepsicología, sesiones por videollamada, aplicaciones móviles para gestión emocional y canales virtuales de intervención en crisis.

También cobraron fuerza las soluciones basadas en inteligencia artificial, particularmente aquellas capaces de simular interacciones humanas. La IA ha permitido crear asistentes virtuales o chatbots que interactúan con el usuario utilizando lenguaje natural, ofreciendo validación emocional, recursos de autorregulación y, en algunos casos, herramientas cognitivo-conductuales automatizadas. Plataformas como Woebot, Wysa o Tess han ganado popularidad por su disponibilidad inmediata y su capacidad de respuesta constante (Gallegos et al., 2024).

Estas tecnologías prometen ampliar el acceso a la salud mental, especialmente en regiones rurales o con escasez de profesionales, y pueden ser utilizadas como primer contacto antes de derivar a un terapeuta humano, o como herramientas complementarias en procesos terapéuticos en curso. Algunos estudios han mostrado mejoras modestas en síntomas de ansiedad y depresión en usuarios frecuentes de estas plataformas, lo que ha generado optimismo en ciertos sectores clínicos y académicos. Pero el uso de IA en contextos clínicos plantea retos considerables. Por un lado, estos sistemas no comprenden emociones, solo las simulan a partir de patrones de lenguaje; la empatía que muestran es programada, no vivida. Por otro lado, existen problemas éticos graves relacionados con la privacidad de los datos, la responsabilidad profesional en caso de crisis y la desigualdad en el acceso, ya que quienes no manejan tecnología o no tienen internet quedan excluidos. Estos algoritmos, además, suelen entrenarse con datos culturales del norte global, lo cual limita su eficacia y sensibilidad en contextos latinoamericanos, donde los códigos emocionales, expresivos y sociales son distintos (Morales Cevallos, 2024).

A todo esto se suma el riesgo de automatización excesiva del vínculo terapéutico. La relación psicólogo-paciente se construye no solo con palabras, sino con silencios, gestos, miradas, intuiciones clínicas y conocimiento profundo del contexto de vida del otro, y una IA no puede captar eso. Por eso, aunque las tecnologías emergentes ofrecen ventajas importantes, su uso en intervenciones de alta sensibilidad emocional, como el debriefing, debe ser cuidadosamente evaluado y supervisado (Canabal et al., 2024).

Dimensiones éticas del debriefing digital: consentimiento, privacidad y cuidado emocional

Más allá del potencial clínico o de accesibilidad que puedan tener las herramientas digitales, cualquier intento de integrar inteligencia artificial al debriefing psicológico debe pasar por un análisis ético riguroso (de Ávila et al., s.f.). El acompañamiento post-crisis es una práctica delicada que requiere presencia emocional, respeto por el dolor del otro y conciencia de los efectos que puede tener una intervención mal planteada. Cuando estos procesos se trasladan a entornos digitales o son mediados por algoritmos, aparecen nuevos dilemas que antes no existían. Uno de los principales es el consentimiento informado. En el debriefing tradicional ya se han identificado riesgos cuando las personas sienten que deben participar por obligación institucional (por ejemplo, luego de un desastre en el lugar de trabajo). Si a esto se suma que la herramienta es automatizada, se corre el riesgo de que el consentimiento no solo sea parcial, sino confuso. ¿Entiende el usuario que está hablando con una máquina? ¿Tiene la posibilidad de optar por no participar sin consecuencias? ¿Sabe qué se hará con sus datos emocionales?

La privacidad emocional es otro aspecto importante. Las plataformas de IA que trabajan con procesamiento de lenguaje natural recolectan, almacenan y analizan información emocional sensible. ¿Dónde se almacenan esos datos? ¿Quién tiene acceso a ellos? ¿Están protegidos por normas de confidencialidad clínica? La mayoría de los sistemas actuales no cumplen con estándares éticos internacionales en cuanto a protección de datos, lo cual expone a los usuarios a posibles vulneraciones. Otra cuestión a considerar es el riesgo de banalización del sufrimiento. Aunque un chatbot pueda replicar frases empáticas como "entiendo cómo te sientes", no existe detrás una conciencia que comprenda el peso real de ese dolor. En contextos de pérdida súbita, violencia, abuso o catástrofes, el dolor humano no puede reducirse a patrones de texto (Putallaz & Pérez, s.f.). Al automatizar estas experiencias, podría darnos la falsa ilusión de acompañamiento, pero sin la profundidad emocional ni la contención que un profesional humano puede ofrecer.

Es importante recordar que el uso de tecnología en salud mental no es solo un asunto técnico, sino también político y social. ¿Qué tipo de atención estamos ofreciendo a las poblaciones más vulnerables? ¿Por qué sería aceptable que personas en crisis hablen con una máquina y no con un ser humano? ¿Estamos generando una salud mental de "doble velocidad", donde unos reciben terapia y otros algoritmos? Cualquier propuesta de debriefing digital debe ir acompañada de marcos éticos claros, regulaciones específicas, formación clínica adecuada y mecanismos de supervisión, pues la tecnología no es neutral, y su aplicación en contextos de trauma debe estar guiada por principios de dignidad, respeto y cuidado profundo del otro. Del análisis documental realizado en esta revisión, se identificaron tres hallazgos principales que permiten comprender el estado actual del debriefing psicológico, así como sus transformaciones frente al auge de las herramientas digitales. Esta información no se presenta como resultados cuantitativos, sino como tendencias conceptuales y problematizaciones clave que surgen del entrecruzamiento de fuentes teóricas, estudios empíricos y reflexiones críticas en torno a la práctica post-crisis.

Persistencia del debriefing a pesar de la controversia científica

En primer lugar, se evidenció que, a pesar del cúmulo de críticas acumuladas en las últimas dos décadas, el debriefing continúa siendo una práctica presente en muchos contextos institucionales, especialmente en servicios de emergencia, centros hospitalarios y equipos psicosociales que intervienen tras desastres naturales o situaciones de violencia. Si bien algunos organismos internacionales han dejado de recomendar su uso rutinario (como es el caso del NICE en Reino Unido), en otros países, sobre todo en América Latina, su implementación persiste debido a la escasez de recursos, la urgencia de ofrecer una respuesta inmediata y la falta de alternativas formalizadas (Domínguez Martín, 2021).

Este análisis sugiere que existe una brecha entre la evidencia científica y la práctica real, motivada tanto por factores logísticos como por el valor simbólico que tiene para muchas personas "ser escuchadas" después de un evento traumático, aun si el formato de escucha no cumple todos los estándares clínicos deseables. Algunos artículos revisados destacaron que, en ciertas situaciones, los participantes expresan alivio tras la sesión de debriefing, lo cual invita a repensar que su utilidad puede no estar tanto en la prevención del TEPT, sino en la experiencia subjetiva de validación emocional que produce (Arancibia et al., 2022).

Tecnología como canal emergente pero aún no consolidado

En segundo lugar, se identificó que la incorporación de tecnologías digitales en la atención psicológica post-crisis ha avanzado significativamente, pero aún no existe un modelo consolidado que reemplace o complemente de forma clara el debriefing tradicional. La mayoría de las plataformas basadas en inteligencia artificial están centradas en el acompañamiento de síntomas emocionales leves, como ansiedad o tristeza, y no han sido específicamente diseñadas para trabajar con experiencias traumáticas recientes. Herramientas tecnológicas como Woebot, Wysa y otras aplicaciones similares muestran potencial en cuanto a disponibilidad, automatización de contenidos psicoeducativos y monitoreo emocional continuo, pero su uso en crisis agudas o eventos críticos sigue siendo experimental (Milione & Esteban, 2024).

Los artículos revisados coinciden en que las tecnologías actuales carecen de sensibilidad cultural, intuición clínica y capacidad de contención profunda, aspectos que son sumamente importantes en cualquier intervención postraumática. Esto se refleja en las limitaciones de respuesta empática, la rigidez en los algoritmos de interacción y la dificultad para responder a situaciones de ambigüedad emocional. Si bien existe un campo en expansión que apuesta por el desarrollo de chatbots cada vez más avanzados, lo cierto es que hasta el momento no hay evidencia suficiente que respalde su uso como herramienta central en procesos de debriefing digital (Campana Ruiz et al., 2024).

La necesidad urgente de marcos éticos y protocolos híbridos

Otro punto importante fue la ausencia de marcos éticos claros y protocolos híbridos que regulen el uso de inteligencia artificial en contextos de acompañamiento emocional post-crisis. La revisión realizada mostró una preocupación compartida en torno a la privacidad de los datos, la transparencia de los algoritmos, el consentimiento informado y la potencial banalización del sufrimiento cuando se delega la contención emocional a una máquina (Garcés & Hernandez, 2024).

Varios autores plantean que, en lugar de reemplazar al profesional humano, las herramientas tecnológicas podrían funcionar como elementos complementarios dentro de modelos mixtos de intervención: por ejemplo, aplicaciones que brinden psicoeducación post-crisis, sistemas de tamizaje digital que detecten indicadores de riesgo emocional, o entornos virtuales seguros para el desahogo inicial mientras se activa un equipo clínico. Sin embargo, este tipo de propuestas aún son incipientes y requieren desarrollo, validación empírica y, sobre todo, reflexión sobre cuestiones éticas (de la Fuente Tambo & Armayones Ruiz, 2025).

Este trabajo sugiere que estamos frente a un campo en transición. El debriefing, aunque cuestionado, sigue siendo relevante en muchos escenarios, y las tecnologías emergentes, si bien aún limitadas, ofrecen oportunidades para repensar la forma en que acompañamos a las personas tras eventos críticos. Pero cualquier avance en esta dirección debe estar guiado por la prudencia clínica, la sensibilidad humana y el respeto absoluto por el dolor del otro.

Discusión

Los hallazgos encontrados en nuestro trabajo invitan a una reflexión profunda sobre el lugar que ocupa y podría ocupar el debriefing psicológico en un contexto global marcado por la aceleración tecnológica, los cambios en el acceso a la salud mental y la creciente automatización de vínculos humanos. Aunque el debriefing ha sido históricamente una herramienta útil para canalizar el impacto inmediato de eventos traumáticos, su aplicación generalizada y poco matizada ha generado controversias legítimas que aún no encuentran resolución consensuada (Gordon & Turnbull, 2023). A esto se suma el auge de las tecnologías digitales, que si bien prometen democratizar el acceso, también traen consigo dilemas que no pueden ser ignorados.

Uno de los principales puntos que emergen es la paradoja entre la necesidad de intervención rápida y la complejidad del sufrimiento humano. La idea de intervenir "a tiempo" después de una crisis es, sin duda, valiosa. Nadie discute la importancia de ofrecer apoyo emocional temprano. El problema radica en cómo y con qué enfoque se lleva a cabo esa intervención. Si el debriefing es aplicado como un protocolo inflexible, descontextualizado y ajeno a la disposición emocional del sujeto, el resultado puede ser incluso contraproducente. Como indican Raphael y Wilson (2000), el procesamiento de un evento traumático no es una secuencia lineal que pueda forzarse; requiere tiempo, contención auténtica y, sobre todo, libertad subjetiva (Zapata Ortiz & Ospino Sara, 2024).

La incorporación de inteligencia artificial en intervenciones post-crisis podría ser vista como una forma moderna de volver a caer en esa rigidez: un nuevo tipo de automatización que, en lugar de liberar al usuario, lo encasilla en estructuras algorítmicas prediseñadas. Las IA pueden responder con frases empáticas, sugerir ejercicios de respiración o registrar estados de ánimo, pero no pueden identificar el gesto ambiguo de quien dice "estoy bien" mientras su voz tiembla. No pueden sostener el silencio incómodo donde a veces se manifiesta el trauma. No pueden diferenciar entre una tristeza pasajera y un dolor existencial.

Este punto es especialmente importante si se considera que, en muchos países como ocurre en varias regiones de América Latina, las herramientas tecnológicas están comenzando a ser vistas como alternativas viables por encima del contacto humano, debido a la falta de personal clínico, la saturación de los sistemas de salud o la dificultad de acceder a profesionales capacitados en zonas rurales. En estas condiciones, surge la preocupación de que se esté promoviendo una especie de "psicología de segunda clase" para las poblaciones más vulnerables, donde el acompañamiento humano es sustituido por interfaces digitales bajo el argumento de eficiencia o cobertura.

La discusión no desea rechazar la tecnología, sino cuestionar cómo se implementa, con qué propósito y bajo qué condiciones éticas. El uso de IA en salud mental debe estar guiado por marcos normativos sólidos, interdisciplinariedad en el diseño y una comprensión profunda de los fenómenos psicológicos que se pretenden abordar. De lo contrario, se corre el riesgo de despersonalizar una práctica cuyo núcleo es precisamente lo humano.

También es justo reconocer que existen potencialidades reales en la integración de tecnología en la atención post-crisis, siempre que se maneje con criterio clínico. Por ejemplo, un sistema automatizado puede servir para realizar un primer tamizaje emocional tras una catástrofe, identificando a quienes presentan síntomas de alarma y necesitan atención urgente. También puede ofrecer recursos básicos de autorregulación emocional en momentos en que no hay profesionales disponibles. Incluso puede facilitar la conexión con servicios clínicos a través de plataformas integradas. Estas funciones, aunque limitadas, pueden salvar vidas si se utilizan como herramientas de apoyo y no como sustitutos del vínculo terapéutico.

Lo que se propone no es abandonar el debriefing ni entregarlo a la IA, sino repensarlo. Tal vez sea momento de superar el formato rígido de siete fases y avanzar hacia una modalidad más flexible, centrada en el usuario, sensible al contexto y abierta a nuevos lenguajes y medios de comunicación. El debriefing del futuro no tiene por qué ocurrir únicamente en una sala de reuniones con un moderador frente al grupo, sino que puede ocurrir en una plataforma digital acompañada por un terapeuta, en una conversación por videollamada con un enfoque narrativo, o incluso a través de una aplicación que ofrezca módulos de contención emocional y conexión directa con un profesional.

Para que esto suceda, se requiere una formación clínica adaptada a la era digital, donde los psicólogos y psicólogas no solo manejen técnicas tradicionales, sino que también comprendan los fundamentos tecnológicos que están transformando la forma en que las personas sufren, se expresan y buscan ayuda. Del mismo modo, los desarrolladores de tecnología deben incorporar a profesionales de la salud mental en sus equipos, para que las decisiones de diseño no se basen solo en la usabilidad, sino también en el cuidado ético de quien interactúa con la herramienta.

Esta discusión no estaría completa sin subrayar un elemento clave: la dignidad emocional del sujeto en crisis. Toda intervención, ya sea humana o digital, debe partir de un principio ético básico: tratar al otro como un ser único, complejo, irrepetible, y no como un conjunto de síntomas a procesar o datos a clasificar. La IA podrá ofrecer apoyo, pero nunca reemplazará la mirada cálida, el silencio respetuoso o la palabra sentida de quien acompaña el dolor desde su humanidad.

Propuesta de modelo híbrido de debriefing digital supervisado

En vista de las limitaciones del debriefing psicológico tradicional, así como de los riesgos que podría significar delegar funciones sensibles a sistemas automatizados, proponemos un modelo híbrido, supervisado y clínicamente orientado que permita articular el acompañamiento post-crisis con herramientas digitales, sin sustituir el rol del profesional humano. Esta propuesta lo que desea es ofrecer una vía intermedia entre la intervención clásica presencial y las nuevas formas de atención digital, adaptándose a las condiciones actuales de acceso, tiempo, recursos y necesidades de las poblaciones vulnerables.

1. Estructura general del modelo

El modelo se basa en tres ejes complementarios:

• Tecnología como apoyo, no como reemplazo

• Supervisión clínica constante

• Participación activa y voluntaria del usuario

Se propone que el debriefing se realice en dos niveles diferenciados pero integrados:

• Nivel 1: Interfaz digital asistida (IDA)

Se trata de una plataforma digital (app o sitio web) que ofrece al usuario una serie de módulos interactivos diseñados para promover la expresión emocional inicial, la estabilización fisiológica y la entrega de psicoeducación básica post-crisis. Este nivel puede incluir:

o Registro de los hechos desde la percepción del usuario (en formato escrito, hablado o visual).

o Exploración emocional guiada mediante preguntas abiertas no invasivas.

o Recursos breves de autorregulación (respiración, grounding, visualizaciones).

o Información sobre reacciones normales al trauma y cuándo pedir ayuda.

o Tamizaje automatizado con alertas clínicas ante señales de riesgo.

• Nivel 2: Acompañamiento profesional sincrónico o asincrónico

Todo lo que el usuario ingrese en la plataforma podrá ser revisado en tiempo real (o diferido) por un psicólogo clínico que supervisa el proceso. Este profesional podrá:

o Intervenir directamente si se detectan respuestas de riesgo.

o Programar una videollamada con el usuario para profundizar la intervención.

o Enviar mensajes personalizados dentro de la plataforma con validaciones, recursos o recomendaciones clínicas.

o Activar redes de apoyo o derivación en casos de urgencia.

2. Principios fundamentales

Este modelo debe estar regido por principios clínicos y éticos que garanticen la seguridad emocional del usuario:

• Consentimiento informado completo y claro desde el inicio, especificando que la plataforma usa IA asistida, que no sustituye la terapia, y que existe supervisión humana.

• Privacidad de datos emocionales protegida por protocolos clínicos y legales, incluyendo cifrado, acceso restringido y políticas de eliminación de datos.

• Adaptabilidad cultural y lingüística, permitiendo que los contenidos se ajusten a las particularidades del país o grupo atendido.

• Enfoque centrado en la persona, donde el usuario decide en qué momento interactuar, qué desea compartir y si desea contacto directo con un profesional.

3. Ámbitos de aplicación

Este modelo podría implementarse en múltiples contextos:

• Desastres naturales y emergencias humanitarias, donde los equipos clínicos no pueden atender a todos los afectados inmediatamente.

• Hospitales, especialmente para personal sanitario tras eventos críticos (muertes súbitas, errores médicos, violencia laboral).

• Escuelas y universidades, luego de eventos violentos o situaciones colectivas de alto impacto emocional.

• Corporaciones y empresas, como parte de sus protocolos de gestión de crisis organizacional.

4. Límites y condiciones de uso

Este modelo no es una intervención de psicoterapia, ni debe utilizarse en casos de trauma severo, riesgo suicida activo o síntomas psicóticos, sino que se trata de un espacio de contención inicial, de exploración emocional segura y de conexión con un profesional, no de un proceso terapéutico sostenido. Además que su implementación debe estar acompañada por:

• Capacitación profesional en el uso de tecnología en salud mental.

• Evaluación empírica de su eficacia en contextos locales.

• Soporte institucional, tanto técnico como clínico.

Conclusiones

El presente artículo ha permitido realizar una revisión crítica sobre el debriefing psicológico, analizando a fondo sus raíces clínicas, las controversias que han rodeado su práctica a lo largo del tiempo, y los retos importantes que significa su posible transformación en un entorno atravesado por la tecnología y la inteligencia artificial. A través del análisis de literatura científica y ensayística, se evidenció que, si bien el debriefing ha sido cuestionado por su eficacia en la prevención del trauma, su persistencia práctica refleja la necesidad humana de ser escuchado, validado y contenido en momentos de alta vulnerabilidad emocional.

Uno de los principales aportes de esta revisión ha sido visibilizar la tensión entre rapidez y profundidad en la intervención post-crisis. La presión institucional y social por “hacer algo” inmediatamente después de un evento crítico ha generado que muchas veces se recurra al debriefing como solución rápida, sin considerar las condiciones subjetivas del afectado. Esto ha llevado a una aplicación mecánica de un protocolo que, mal utilizado, puede perder su potencia clínica y convertirse en una rutina desprovista de verdadero acompañamiento.

Paralelamente, se revisaron los avances en salud mental digital y el crecimiento del uso de inteligencia artificial en intervenciones psicológicas, y aunque estas herramientas ofrecen oportunidades para ampliar el acceso y responder con inmediatez, su uso en contextos sensibles como el trauma reciente presenta limitaciones bastante importantes. La IA por muy sofisticada que sea, no puede suplir la complejidad del vínculo humano. La contención emocional, el tacto clínico, la lectura entre líneas, el silencio que cuida… son aspectos que hoy por hoy siguen siendo exclusivos del encuentro humano.

La revisión sugiere que el camino no está en abandonar ni en automatizar el debriefing, sino en reformularlo desde una lógica híbrida y ética, que aproveche las ventajas de lo digital sin renunciar al corazón de la práctica clínica: la relación con el otro. Algunas propuestas interesantes como el modelo híbrido supervisado que aquí se planteó son un intento por articular lo mejor de ambos mundos, proponiendo un tipo de intervención más flexible, gradual, personalizada y sensible culturalmente hablando.

También se evidenció la necesidad de marcos éticos robustos que regulen el uso de plataformas digitales e inteligencia artificial en contextos de sufrimiento emocional. No basta con que una app funcione técnicamente; sino que debe proteger la dignidad del usuario, garantizar privacidad emocional, y estar acompañada de supervisión profesional real. La salud mental no puede dejarse al criterio de un algoritmo, ni la vulnerabilidad convertirse en un dato más para alimentar modelos predictivos.

Para terminar diremos que, esta revisión nos invita a una reflexión más amplia sobre el futuro de la atención psicológica. En un mundo cada vez más automatizado, quizás el acto más subversivo y más necesario sea insistir en la humanidad del cuidado. El debriefing puede seguir siendo una herramienta valiosa si se adapta, se piensa críticamente y se enmarca dentro de un modelo más amplio de intervención post-crisis. Pero sobre todo si se practica desde la ética de la presencia, esto es, estar con el otro, en su dolor, de forma genuina, atenta y respetuosa, ya sea cara a cara o a través de una pantalla, pero siempre con humanidad.

Referencias

Carmen, F., & Stephanie, B. (2022). Intervención cognitivo conductual para la promoción de resiliencia en adolescentes con ideación suicida. http://dgsa.uaeh.edu.mx:8080/jspui/handle/231104/6087

Cabas, P. A. (2021). La gestión comunicacional de la crisis del COVID-19 en Tierra del Fuego AIAS. Análisis comparado de las estrategias del gobierno provincial de Tierra del Fuego, AIAS y de las municipalidades de Ushuaia y de Río Grande. Studia Politicæ, (53). https://revistas.bibdigital.uccor.edu.ar/index.php/SP/article/view/5185

Kononovich, E. Programa de prevención-intervención psicológica post catástrofe para bomberos basado en la técnica Debriefing Post-disaster psychological prevention-intervention program for firefighters based on the Debriefing. https://zaguan.unizar.es/record/155821

Velasco Rodríguez, J. (2024). Efectos de la exposición al sufrimiento humano sobre los profesionales del ámbito de la atención psicológica.https://helvia.uco.es/xmlui/handle/10396/26453

Pérez Hurtado, J. A. (2025). Gestión emocional en interpretación médico-sanitaria en España: análisis del debriefing y los grupos de apoyo como estrategias de autocuidado.. https://acortar.link/Drji3F

Ramírez Oviedo, L. M., Chica Romero, M. P., Ávila Pinzón, D., Beltrán Vargas, O. Y., & Díaz Sánchez, F. La imagen y la narrativa como herramientas para el abordaje psicosocial en escenarios de violencia. Departamentos de Cundinamarca, Risaralda y Quindío.. https://repository.unad.edu.co/handle/10596/57657

González-Naranjo, D. E., Bayas-Poma, D. B., Bayas-Poma, R. B., & Rivera-Palomino, D. C. (2025). Percepción de los estudiantes de enfermería sobre el sufrimiento y la muerte durante sus prácticas clínicas. Innova Science Journal, 3(2), 151-166. https://innovasciencejournal.omeditorial.com/index.php/home/article/view/61

Alemán, J. A. (2023). La Intervención en crisis, en una era de transformaciones tecnológicas y esquizofrenia social: Una aproximación Transhumanista. Revista de la Escuela de Trabajo Social de la Universidad de San Carlos de Guatemala, 1(41), 55-68. https://core.ac.uk/reader/599215330

Ramírez, B. E., Cháves-Paz, C. X., Eraso-Angulo, R. H., & Yarce-Pinzón, E. (2024). El Debriefing en Simulación Clínica para la Formación de Fisioterapeutas. Búsqueda, 11(2). https://revistas.cecar.edu.co/index.php/Busqueda/article/view/736

España Coral, S. D. S., Mora Botina, D. A., & Insuasty Ortiz, H. A. (2024). Modelo Debriefing y su relación con la satisfacción y autoconfianza con estudiantes de Medicina en prácticas de simulación clínica de la Universidad Cooperativa de Colombia campus Pasto 2023. https://repository.ucc.edu.co/entities/publication/033329a8-709e-4288-bd5f-63de55c24d6e

Escribano Sánchez, G. (2021). Debriefing y estrategias de aprendizaje. Análisis comparativo entre dos estilos de análisis reflexivo en estudiantes de Enfermería que aprenden con simulación clínica. https://repositorio.ucam.edu/handle/10952/5084

Lun-Álvarez, H. E., Muñoz-Palacio, F., & Mocha-Román, V. J. (2025). Tendencias Actuales en intervención psicológica. Sociedad & Tecnología, 8(1), 170-190. https://institutojubones.edu.ec/ojs/index.php/societec/article/view/486

Gallegos, M. D. C. J., Pilataxi, A. C. G., Toscano, M. B. C., & Sangucho, A. J. M. (2024). La mente digital: un análisis del impacto psicosocial de la inteligencia artificial en los estudiantes del siglo XXI. REINCISOL: Revista de Investigación Científica y Social, 3(6), 2038-2069. https://dialnet.unirioja.es/servlet/articulo?codigo=9991104

Morales Cevallos, M. B. (2024). Desafíos de la educación contemporánea: perspectivas formativas para una sociedad digital tecnología, innovación y sociedad en la era digital. https://www.torrossa.com/it/resources/an/5831091

Canabal, A., Delgado, E. A. K., & González, M. A. (2024). Inteligencia artificial en la salud mental: oportunidades, dificultades y cuestionamientos. INTELETICA. Revista de Inteligencia Artificial, Ética y Sociedad, 1(2), 16-26. https://inteletica.iberamia.org/index.php/journal/article/view/12

de Ávila, U. E. R., Rodríguez, R. A. B., Pedraza, J. A. E., Villa, D. F. V., Díaz, R. J. P., Vargas, B. A. H., ... & Campos, F. R. D. F. Salud mental en Santa Marta. https://repositorio.unimagdalena.edu.co/items/afcfedb8-54e2-435e-9c90-9e4bc063c367

Putallaz, P. R., & Pérez, K. Primeros auxilios psicológicos en el contexto digital. Experiencias en ciberpsicología: hacia una nueva era de la psicología, 225. https://acortar.link/aWKdDi

Domínguez Martín, V. (2021). Debriefing Psicológico: revisión sistemática sobre su eficacia con el personal interviniente en emergencias y catástrofes. https://riull.ull.es/xmlui/handle/915/23495

Arancibia, M., Leyton, F., Morán, J., Muga, A., Ríos, U., Sepúlveda, E., & Vallejo-Correa, V. (2022). Debriefing psicológico en eventos traumáticos agudos: síntesis de la evidencia secundaria. Medwave, 22(01). http://viejo.medwave.cl/link.cgi/Medwave/Revisiones/RevisionTemas/8517.act

Milione, H. F., & Esteban, C. (2024). Guiando el aprendizaje a través de simulación en salud: El papel transformador del docente. Revista de la Facultad de Medicina Humana, 24(3), 99-105. http://www.scielo.org.pe/scielo.php?pid=S2308-05312024001300099&script=sci_abstract

Campana Ruiz, G. T., Lamas Vidalón, V. M., Morales Andrade, A. J., & Pachas Romero, M. L. (2024). La IA y la psicología:¿ Puede la tecnología sustituir al profesional humano?. https://repositorio.ulima.edu.pe/handle/20.500.12724/22610

Garcés, L. F. S., & Hernandez, D. C. V. (2024). Inteligencia artificial y su impacto en la psicología humana: mini revisión. Mediciencias UTA, 8(1), 26-34. https://revistas.uta.edu.ec/erevista/index.php/medi/article/view/2306

de la Fuente Tambo, D., & Armayones Ruiz, M. (2025). La IA en la Práctica Psicológica:¿ qué Existe y Cómo Puede Ayudar en Psicología Asistencial?. Papeles del Psicólogo, 46(1). https://www2.papelesdelpsicologo.es/pdf/1212.pdf#page=20

Gordon, S. F., & Turnbul, B. (2023). Adopción de la inteligencia artificial en el campo de la psicología. Psicología Iberoamericana, 31(2), 1-5. https://www.redalyc.org/journal/1339/133976826005/133976826005.pdf

Zapata Ortiz, A. C., & Ospino Sara, J. P. (2024). Revolucionando la salud mental: el impacto de la inteligencia artificial en la psicoterapia. https://bonga.unisimon.edu.co/items/f467b90b-69b0-4f20-beb8-bd962c06e0bd

Conflicto de intereses

Los autores declaran no tener ningún conflicto de intereses.

Declaración de responsabilidad de autoría

Los autores del manuscrito señalado, DECLARAMOS que hemos contribuido directamente a su contenido intelectual, así como a la génesis y análisis de sus datos; por lo cual, estamos en condiciones de hacernos públicamente responsable de él y aceptamos que sus nombres figuren en la lista de autores en el orden indicado. Además, hemos cumplido los requisitos éticos de la publicación mencionada, habiendo consultado la Declaración de Ética y mala praxis en la publicación.

Mayra Paola Cortez Ocaña, David Stefano Bastidas Meza, Xavier Patricio Bejarano Gavilanes y Juan Carlos Saltos Falconí: Proceso de revisión de literatura y redacción del artículo.