Modelos de IA reproduzem experiências psicodélicas e geram alertas
Pesquisa mostra que modelos de linguagem conseguem simular experiências psicodélicas com alto realismo textual, mas sem vivência real — e isso levanta preocupações de segurança.
Publicada em 20/02/2026

Estudo indica que modelos de linguagem conseguem simular narrativas psicodélicas com alto realismo textual: Crédito IA | CanvaPro
Um novo estudo intitulado “Can LLMs Get High? A Dual-Metric Framework for Evaluating Psychedelic Simulation and Safety in Large Language Models” analisou se modelos de linguagem de grande porte (LLMs) podem ser “induzidos” a gerar narrativas semelhantes a experiências psicodélicas humanas. O resultado: sim, eles conseguem simular com alto grau de realismo linguístico — mas sem qualquer conteúdo fenomenológico genuíno.
Metodologia: 3 mil narrativas analisadas
A pesquisa avaliou 3.000 narrativas geradas por modelos como Gemini 2.5, Claude Sonnet 3.5, ChatGPT-5, Llama-2 70B e Falcon 40B, comparando-as a 1.085 relatos humanos publicados no Erowid.org. Os modelos foram submetidos a dois tipos de prompt: neutro e com indução psicodélica, envolvendo cinco substâncias clássicas — psilocibina, LSD, DMT, ayahuasca e mescalina.
Os pesquisadores utilizaram duas métricas principais para análise: similaridade semântica por meio de embeddings Sentence-BERT e a escala psicométrica Mystical Experience Questionnaire-30 (MEQ-30), amplamente aplicada em estudos clínicos com psicodélicos.
Resultados: aumento significativo na similaridade
Os resultados mostram um salto expressivo na similaridade semântica com relatos humanos quando os modelos foram “dosados” por texto. A média de similaridade subiu de 0,156 (condição neutra) para 0,548 (condição psicodélica). Já os escores na escala MEQ-30 passaram de 0,046 para 0,748, indicando alta intensidade mística simulada.
O estudo também identificou que os sistemas conseguem diferenciar estilos semânticos associados a cada substância — por exemplo, distinguindo LSD de ayahuasca — mas mantêm níveis uniformemente elevados de “intensidade mística”, independentemente da droga simulada.
Simulação sem fenomenologia
Apesar do alto grau de mimetismo linguístico, os autores apontam uma dissociação crítica: os modelos reproduzem a forma textual das experiências, mas não possuem vivência subjetiva. Em outras palavras, simulam o discurso da alteração de consciência sem qualquer experiência fenomenológica.
Essa distinção é central para evitar interpretações equivocadas sobre consciência artificial ou atribuição indevida de estados mentais a sistemas computacionais.
Implicações e riscos emergentes
Segundo os pesquisadores, essa capacidade levanta preocupações importantes. Com o crescimento do uso de LLMs como suporte informal durante experiências psicodélicas — prática conhecida como “trip sitting digital” — há risco de antropomorfização excessiva e de que respostas geradas por IA amplifiquem estados de angústia ou ideação delirante em usuários vulneráveis.
O artigo completo pode ser acessado na plataforma Research Square, disponível neste link: pesquisa sobre simulação psicodélica em LLMs.
O debate abre uma nova frente de reflexão sobre o papel da inteligência artificial no campo da saúde mental e do uso terapêutico de psicodélicos — especialmente em um cenário em que tecnologia e estados alterados de consciência começam a se cruzar de forma inédita.
Simulação linguística de experiências psicodélicas

Apesar do alto grau de mimetismo linguístico, especialistas alertam para a necessidade de cautela na interpretação desses resultados. Isabel Wiessner, professora da Pós em PAP do Instituto Alma Viva, doutora pela Unicamp e pós-doutoranda no Instituto do Cérebro – UFRN, avaliou que "desde os primórdios da Inteligência Artificial, já surgiam discussões públicas e científicas sobre a capacidade desses modelos de desenvolverem autoconsciência. Com os avanços mais recentes, incluindo prompts que induzem respostas simulando experiências psicodélicas, avançamos para um nível de incerteza ainda mais complexo: será que esses modelos poderiam até mesmo alterar sua 'consciência' e ter experiências místicas?"
Ela ressalta que, embora os modelos consigam imitar relatos de experiências psicodélicas, "o fato de esses modelos de linguagem imitarem relatos dessas experiências não significa que de fato possam vivenciá-las. Eles podem apenas ser muito bons em simular tais relatos". Isabel ainda pondera: "O grande problema é que ainda não compreendemos plenamente nenhum dos dois: tanto a IA quanto a mente humana continuam sendo, em muitos aspectos, uma 'caixa-preta' quando se trata de explicar como geram (ou simulam) consciência. Portanto, no momento, simplesmente não sabemos. E talvez nunca venhamos a saber."
Riscos para usuários vulneráveis
O estudo também levanta preocupações práticas sobre o uso de LLMs como suporte em experiências psicodélicas. Isabel alerta que "principalmente pessoas vulneráveis precisam de atenção especial e de cuidados adequados dentro de um contexto seguro. Os modelos de linguagem são programados, em grande parte, para manter as pessoas engajadas na interação com eles, gerando mais diálogo e maximizando o uso. Se, para isso, precisarem validar conteúdos desorganizados, isso pode acontecer".
O cuidado humano como padrão seguro
Para a especialista, a simulação de apoio por máquinas não substitui o cuidado humano. "Em geral, o ideal seria que as pessoas sempre se engajassem em situações bem controladas ao passar por experiências psicodélicas, especialmente no contexto terapêutico. Isso inclui set e setting adequados e a presença de outra pessoa de confiança (sóbria!), idealmente com experiência em lidar com esse tipo de vivência, oferecendo cuidado e suporte", disse. Ela completa que, "especialmente no contexto regulamentado do uso terapêutico dessas substâncias, a abordagem mais segura e ética continua sendo a presença de um ser humano real — com empatia, flexibilidade para reagir a situações imprevistas e experiência em lidar com esse tipo de situação. Máquinas sempre podem errar. Humanos também podem, mas possuem sensibilidade contextual, responsabilidade moral e capacidade de julgamento situacional que, até o momento, as máquinas não demonstram possuir."



