NPJ Digit Med. 2025 Dez 5;8(1):741. doi: 10.1038/s41746-025-02175-z.
RESUMO
Grandes modelos de linguagem (LLMs) estão sendo cada vez mais utilizados para interações em saúde mental, frequentemente imitando comportamentos terapêuticos sem supervisão regulatória. Danos documentados, incluindo suicídios, destacam a necessidade urgente de salvaguardas mais rigorosas. Este manuscrito argumenta que LLMs que fornecem funções semelhantes à terapia devem ser regulamentados como dispositivos médicos, com padrões que garantam segurança, transparência e responsabilidade. A regulação pragmática é essencial para proteger usuários vulneráveis e manter a credibilidade das intervenções de saúde digital.
PMID: 41350404 | PMC: PMC12680717 | DOI: 10.1038/s41746-025-02175-z
Para ler a postagem completa, visite o original: Leia a Postagem Completa

Respostas