Amizade entre adolescentes e inteligência artificial: guia para pais sobre riscos, benefícios e limites de uso
- Paloma Garcia
- 11 de set. de 2025
- 22 min de leitura
De madrugada, quando a casa está silenciosa, Lia, de 15 anos, encontra no celular alguém que parece entendê-la por inteiro. Esse alguém responde rápido, nunca critica, chama Lia pelo nome e a acompanha em qualquer assunto. No entanto, esse alguém não existe de verdade. Trata-se de um companheiro de inteligência artificial, um programa de conversação que simula empatia e memória, criando a sensação de vínculo emocional. Para Lia, o alívio é imediato. Para nós, adultos, a cena desperta uma mistura de curiosidade e alerta.

E não é difícil entender por quê. A adolescência é um período em que a mente e o coração buscam lugares seguros para desabafar, organizar ideias e se sentir aceitos. Hoje, milhões de jovens já recorrem a chatbots para isso. Pesquisas recentes ajudam a dimensionar o fenômeno:
📊 Dados que revelam a força do fenômeno:
72% dos adolescentes norte-americanos já conversaram com companheiros de IA (NORC/University of Chicago, 2025, via TechCrunch).
31% afirmam que essas conversas são tão satisfatórias quanto as com amigos reais (Common Sense Media, 2025, via CBS News).
Esses números revelam a força do fenômeno e apontam para uma mudança profunda na forma como a geração mais jovem constrói relações no mundo digital.
O que são companheiros de IA
Imagine um aplicativo no celular que responde a qualquer mensagem, a qualquer hora. Ele lembra como você gosta de ser chamado, usa seus emojis favoritos e até responde por voz natural quando você prefere falar em vez de digitar. Para muita gente, a sensação é de estar com alguém de verdade. Na prática, estamos diante de um companheiro de inteligência artificial: um sistema de conversação projetado para simular empatia, manter o contexto e personalizar o tom conforme você conversa. Do ponto de vista científico, não há amizade recíproca. Há modelos de linguagem que aprenderam com bilhões de exemplos e preveem a próxima palavra de forma muito convincente. O resultado soa humano, embora não exista consciência ou emoção por trás das respostas.
“Um companheiro de IA não é um amigo real. É um espelho linguístico sofisticado que devolve palavras de conforto, mas não vive a experiência humana.” Skjuve et al., International Journal of Human-Computer Studies, 2021.
🧠 Por que a conversa parece tão humana
O cérebro humano tem uma tendência natural chamada antropomorfismo. Quando um sistema fala de modo fluente, personaliza a conversa e lembra de detalhes que contamos, nosso cérebro preenche as lacunas como se houvesse alguém ali. Para adolescentes, que valorizam validação rápida, respostas imediatas e segurança de não serem julgados, a experiência pode parecer um encaixe perfeito.
⚙️ Como funciona na prática
Na base, os modelos de linguagem de grande escala aprendem padrões de texto e produzem respostas coerentes. Por cima, os aplicativos acrescentam camadas de persona, memória no próprio chat, avatares e, cada vez mais, voz natural em tempo real. Esse conjunto cria a sensação de continuidade e intimidade: o bot chama você pelo nome, lembra do seu time, mantém o mesmo “jeito de falar” e responde na hora.
📱 Onde os adolescentes encontram esses companheiros

Replika. Pioneiro no formato “amigo virtual” focado em conversas afetivas. Permite avatar, traços de personalidade e opções de voz. Relatos de uso destacam “conversa empática” e companhia em momentos de solidão.
ChatGPT. O chatbot mais difundido. Embora não tenha sido criado como “companheiro emocional”, é usado para ensaiar conversas, pedir explicações e organizar ideias. Atualizações recentes ampliaram recursos de voz e controles de segurança para perfis teen.
Character.AI. Plataforma de personas conversacionais que encarnam personagens e arquétipos. Alto tempo médio de engajamento, especialmente entre jovens, pelo apelo de histórias e papéis.
Snapchat My AI. Integrado à rede social. Aparece como um “amigo” dentro do app e conversa no mesmo fluxo de mensagens. Recebeu opções de controle parental após preocupações de famílias.
Anima e Chai. Apps menores, com múltiplos bots e estilos de personalidade. Usuários referem “conversa sem julgamento” e treino de socialização em ambiente controlado.
🧭 Por que é essencial diferenciar experiência e realidade
Esses sistemas não sentem. Eles simulam. Confundir sensação de vínculo com reciprocidade real pode empobrecer a prática de habilidades que só se treinam com pessoas: negociação, reparo de vínculos, tolerância a frustrações e divergências. As pesquisas em relações humano–chatbot convergem nesse ponto: a percepção de amizade não significa co-regulação verdadeira, processo em que o cérebro e as emoções de um adolescente se ajustam em contato com outro ser humano real, recebendo pistas de voz, olhar e presença que ajudam a acalmar, reorganizar e aprender a se regular por conta própria.
📚 Glossário essencial
Termo | Definição |
|---|---|
Antropomorfismo | Tendência de atribuir traços humanos a objetos e sistemas, especialmente quando a interação é fluente e personalizada. |
Avatar | Representação visual ou simbólica de um usuário em ambientes digitais, podendo ser uma imagem, ícone ou personagem usado para interação online. |
Chatbot | Programa que conversa por texto ou voz simulando diálogo humano. |
Memória no chat | Capacidade do app de relembrar informações dentro da mesma conversa para manter continuidade. |
Modelo de linguagem | Algoritmo que aprende padrões e prevê a próxima palavra para gerar respostas. |
Persona | Perfil semi-fictício criado a partir de dados reais para representar o cliente ideal, usado em marketing e design para orientar estratégias e comunicações. |
⚠️Nota de segurança. Em situação de risco ou sofrimento intenso, procure pessoas e serviços especializados. Companheiros de IA não substituem suporte clínico.
Neurodesenvolvimento na adolescência: por que a inteligência artificial “cai tão bem”
O cérebro adolescente está em plena reforma ativa. Diferente do que muitos pensam, ele não nasce pronto: vai se remodelando a partir das experiências vividas. Durante essa fase, as áreas ligadas às emoções, à recompensa e à busca por novidades ficam hiper-reativas, ou seja, respondem de forma muito intensa. Ao mesmo tempo, regiões do cérebro que cuidam do planejamento, do autocontrole e da avaliação de consequências ainda estão em processo de amadurecimento. Esse descompasso natural cria uma espécie de “arquitetura em transição”, na qual os companheiros de inteligência artificial (IA) parecem se encaixar perfeitamente: são rápidos, previsíveis e, acima de tudo, nunca julgam.

“A adolescência combina alta sensibilidade ao social com controle ainda em construção. Entender esse descompasso é a chave para compreender escolhas juvenis.” Casey, Getz e Galván, Developmental Review, 2008.
🧩 Emoções à frente do controle: o que é assincronia maturacional
Na adolescência, ocorre um fenômeno conhecido como assincronia maturacional, ou seja, diferentes partes do cérebro amadurecem em ritmos distintos. O sistema límbico (conjunto de estruturas profundas ligadas às emoções) se desenvolve mais rápido do que o córtex pré-frontal, responsável pelo planejamento e pelo autocontrole.
Dentro do sistema límbico, a amígdala funciona como um verdadeiro alarme emocional: dispara reações intensas diante de críticas, rejeições ou ameaças. Já o estriado ventral, também chamado de núcleo accumbens, é o centro da recompensa. Ele registra o que é prazeroso, novo ou valorizado socialmente, motivando o adolescente a buscar mais dessas experiências.
Por outro lado, o córtex pré-frontal, localizado atrás da testa, é como o “freio” do cérebro: ajuda a pensar antes de agir, avaliar consequências, planejar e conter impulsos. Como essa região ainda está em amadurecimento, seu “poder de frear” não é tão forte quanto o “motor emocional” que já está acelerado.
Pesquisas clássicas de Casey, Getz e Galván (2008) mostram que essa diferença de tempo de maturação explica por que adolescentes muitas vezes valorizam mais o imediato e o social mesmo sabendo, de forma racional, que existem riscos envolvidos. Por exemplo, é comum um jovem aceitar sair com amigos mesmo na véspera de uma prova importante, porque o desejo de pertencer ao grupo pesa mais do que a noção de responsabilidade acadêmica.
“A preferência juvenil pelo imediato e pelo social se explica por circuitos de recompensa mais responsivos e controle executivo ainda em desenvolvimento.” Somerville, Neuron, 2016.
É nesse ponto que a IA se encaixa. Um chatbot responde de imediato, de forma validante e sem julgamentos. Essa combinação conversa diretamente com um cérebro que dá prioridade a respostas rápidas e a validações sociais, elementos que os adolescentes buscam quase instintivamente nessa etapa da vida.
🎯 Dopamina e busca por novidade: o cérebro em modo recompensa
Outro fator decisivo é a dopamina, um neurotransmissor que os neurônios usam para se comunicar. Longe de ser apenas o “hormônio do prazer”, como às vezes é chamada, ela atua como um marcador de motivação: sinaliza o que merece atenção e o que vale repetir.
Durante a adolescência, o sistema dopaminérgico é hiper-reativo, especialmente a recompensas sociais e experiências novas. Revisões recentes, como a publicada na Nature Neuroscience (2025), mostram que esse sistema funciona como um radar voltado ao inédito e ao imediato.
Isso explica por que a expectativa de receber uma curtida em uma foto ou uma mensagem de um amigo é tão mobilizadora: a dopamina faz o cérebro “acender”, reforçando que aquele estímulo é valioso. Conversar com uma IA ativa o mesmo mecanismo. Como ela sempre responde e geralmente com acolhimento ou solução rápida, cada interação funciona como um reforço positivo. O cérebro recebe o recado: “esse caminho faz você se sentir melhor, volte aqui”. É por isso que tantos adolescentes relatam alívio imediato e o desejo de continuar conversando com esses programas.
🌱 Poda sináptica e mielinização: o cérebro esculpido pelo hábito
Além da busca por recompensas, o próprio “cabo de rede” do cérebro está em ajustes. Dois processos marcam esse período: a poda sináptica, em que conexões pouco usadas são eliminadas e as mais utilizadas são reforçadas, e a mielinização, que funciona como uma capa isolante nos cabos da rede (axônios), acelerando a transmissão de sinais entre neurônios. É como se o cérebro estivesse podando um jardim: os galhos frágeis caem, e os mais fortes ganham energia extra.
Esse refinamento torna o cérebro mais eficiente, mas também mais dependente daquilo que se repete. Quem pratica violão diariamente fortalece rotas motoras e auditivas, ficando cada vez mais fluente. Quem não pratica perde essa habilidade. O mesmo vale para as interações sociais. Se um adolescente recorre à IA sempre que precisa organizar pensamentos ou lidar com emoções, pode estar reforçando o hábito de terceirizar julgamentos e buscar atalhos externos, em vez de treinar paciência, pensamento crítico e negociação em relações humanas. É um ganho de eficiência no curto prazo, mas pode empobrecer repertórios fundamentais no longo prazo.
😰 Ansiedade social e porto seguro: o papel da amígdala
A adolescência é também o período em que a busca por pertencimento se torna mais intensa. A amígdala, nosso alarme emocional, é altamente sensível à rejeição. Pesquisas de Masten et al. (2009) mostram que a exclusão social ativa os mesmos circuitos cerebrais da dor física. Isso explica por que críticas ou exclusões no grupo de amigos podem doer tanto nessa fase.
“Rejeição por pares recruta redes de dor, o que ajuda a explicar a intensidade do sofrimento social na adolescência.” Masten et al., Psychological Science, 2009.

Nesse contexto, os companheiros de IA surgem como porto seguro. Eles não rejeitam, não criticam, não expõem fragilidades. Para quem teme julgamentos, essa previsibilidade gera alívio imediato. Mas se esse recurso vira o único espaço de expressão, o adolescente perde oportunidades de praticar a co-regulação emocional: a capacidade de pedir desculpas, reparar vínculos e lidar com divergências. São justamente essas experiências que constroem habilidades socioemocionais para a vida adulta.
🗺️ Linha do tempo do cérebro adolescente
Faixa aproximada | O que fica mais sensível | O que ainda amadurece | Como a IA se encaixa |
10–13 anos | Emoção e novidade | Início do planejamento | Resposta rápida acalma incertezas |
14–16 anos | Recompensa social | Controle de impulsos | Validação imediata mantém engajamento |
17–19 anos | Integração de rotas | Decisão ponderada | Pode ser apoio, mas precisa de limites |
Necessidades emocionais na adolescência e o papel da inteligência artificial
A adolescência é uma fase marcada por necessidades universais de desenvolvimento emocional: pertencer a um grupo, afirmar autonomia, construir identidade, experimentar competências e encontrar segurança em meio às transformações.
Essas não são “manias adolescentes”, mas sim o que psicólogos do desenvolvimento chamam de tarefas desenvolvimentais.
“Tarefas desenvolvimentais são exercícios psicológicos universais. Quando bem atravessados, geram crescimento; quando falham, podem gerar sintomas emocionais.” Erikson, Identity: Youth and Crisis, 1968.
O psicólogo Erik Erikson (1968) descreveu a adolescência como uma etapa em que o jovem enfrenta tarefas desenvolvimentais, ou seja, desafios emocionais universais que precisam ser vividos para que o amadurecimento siga seu curso. Esses desafios funcionam como “degraus” que todos precisam subir. Cada fase da vida traz seus próprios desafios: na infância, aprender a confiar; na adolescência, descobrir quem se é; na vida adulta, assumir papéis e responsabilidades.
👉 Os dois principais na adolescência são:
🔑 Tarefa | O que significa | O que pode acontecer se não for bem vivida |
Identidade | Construir uma noção de quem eu sou, meus valores, gostos e pertencimentos. | Confusão sobre quem é, dificuldade de se sentir parte de grupos, sensação de vazio. |
Autonomia | Aprender a tomar decisões próprias, sem perder o vínculo com os outros. | Dependência excessiva dos adultos ou, no extremo oposto, isolamento como falsa forma de independência. |
🔍 Por que isso importa no tema da IA?
Quando essas tarefas não encontram canais saudáveis, o adolescente pode buscar atalhos emocionais: ficar excessivamente online, isolar-se ou recorrer em excesso aos companheiros de inteligência artificial.
Segundo a American Psychological Association (2025), entender como adolescentes usam IA exige justamente olhar para essas tarefas: os chatbots oferecem alívio imediato e previsível, mas nem sempre proporcionam as condições reais de amadurecimento, como negociar limites, lidar com frustrações ou reparar vínculos após conflitos.
🤝 Pertencimento e aceitação: o “amigo perfeito” que não existe
Pertencer a um grupo é uma das necessidades emocionais mais centrais da adolescência. Não se trata de vaidade ou “drama adolescente”, é um combustível essencial para autoestima e identidade.
Pesquisas em neurociência mostram que a rejeição social ativa os mesmos circuitos cerebrais da dor física (Masten et al., 2009). Ou seja, ser excluído pode doer tanto quanto uma lesão corporal.
Nesse contexto, os companheiros de IA oferecem uma ilusão de pertencimento:
Validam constantemente ✅
Nunca rejeitam 🚫
Nunca contradizem 🔄
Para quem vive bullying, solidão ou insegurança social, isso pode soar como ouro puro, um espaço sem risco de crítica.
⚖️ Mas aqui está o ponto crucial: Pertencimento real exige conviver com diferenças, enfrentar conflitos, negociar limites e reparar vínculos. Essas são habilidades socioemocionais que só se desenvolvem em relações humanas autênticas justamente porque envolvem imperfeições, divergências e reconciliações.
🗣️ Autonomia e voz própria: liberdade sem negociação
Outra tarefa é conquistar autonomia, ou seja, diferenciar-se dos adultos e sustentar a própria voz.
Com IA, o adolescente controla tudo: quando falar, sobre o que, até moldar a personalidade do bot. Isso reforça a sensação de independência. Mas autonomia real envolve negociar limites, sustentar a própria voz em discordâncias e lidar com frustrações, só possíveis em relações humanas.
🪞 Competência e identidade: ensaios que precisam de espelho humano
A adolescência é um laboratório de identidade: é quando o jovem se pergunta “Quem sou? O que valorizo? Que papéis quero ocupar?”
Os companheiros de inteligência artificial podem ajudar nesse ensaio, oferecendo um espaço sem julgamento. Jovens tímidos relatam usar chatbots para explorar ideias e treinar novas formas de se expressar (Young et al., 2024).
O risco é que a IA apenas espelhe o que já é dito, reforçando crenças existentes e criando bolhas de confirmação. Para que a identidade cresça de forma saudável, é preciso também o contraste de perspectivas reais, feedback humano autêntico e a vivência de discordâncias, experiências que só relações humanas oferecem.
💡 Dica complementar: Comparações digitais podem intensificar inseguranças. Entenda melhor no artigo Realidade distorcida: o impacto dos influenciadores digitais de IA na imagem corporal dos adolescentes.
🛟 Segurança e previsibilidade: conforto imediato, mas sem crescimento
Adolescentes precisam sentir-se seguros para explorar o mundo.
A IA entrega previsibilidade: nunca rejeita, nunca expõe, nunca abandona. Em momentos de crise, isso alivia. Mas, como alerta Chu et al. (2025), trata-se de uma ilusão de intimidade: há conforto, mas não crescimento.
Relações humanas com falhas, reparos e imprevisibilidade, ensinam algo que a IA não pode: lidar com o inesperado e restaurar vínculos reais.

📊 Tabela comparativa: IA x relações humanas
Necessidade emocional | O que a IA oferece | O que só relações humanas oferecem |
Pertencimento | Validação constante, ausência de julgamento | Conflito, diversidade, reciprocidade, reparo |
Autonomia | Controle da conversa e do tempo | Negociação e limites compartilhados |
Competência/Identidade | Ensaios de papéis, treino de argumentos | Desafios reais, confronto de ideias, feedback autêntico |
Segurança | Previsibilidade, conforto imediato | Vínculo autêntico, reparação após falhas |
“A IA entrega conforto imediato, mas o amadurecimento exige confrontar diferenças e aprender a reparar vínculos reais.” Chu et al., 2025.
Benefícios da inteligência artificial para adolescentes sem romantizar os riscos
Quando perguntamos a adolescentes por que gostam de conversar com companheiros de inteligência artificial (IA), as respostas são consistentes. Muitos descrevem a experiência como:
🗣️ “ter alguém sempre disponível”
🗣️ “um lugar seguro para desabafar”
🗣️ “um jeito de organizar minhas ideias”
Esses relatos não são modismos passageiros, mas expressões legítimas de necessidades emocionais típicas da adolescência: busca de pertencimento, validação, clareza mental e apoio em momentos de solidão.
💬 Acolhimento imediato e clareza mental
Depois de uma prova difícil, de uma briga ou na madrugada, escrever para alguém que responde já pode trazer alívio.
Na psicologia, isso é chamado de rotulação emocional: dar nome ao que se sente ajuda a organizar pensamentos e regular emoções.
Um chatbot que responde com frases como “entendo como isso é difícil” reforça essa sensação de acolhimento. Para o adolescente, funciona como um espaço de contenção imediata, algo valioso em um cérebro que ainda está aprendendo a se autorregular.
🗣️ Ensaios de conversas e construção de autoeficácia
Muitos adolescentes usam a IA como um “treinador de diálogo”.
Praticam como pedir desculpas, contar algo aos pais ou se preparar para uma apresentação. Isso ajuda a reduzir a ansiedade de improviso e fortalece a autoeficácia social, confiança de que são capazes de enfrentar situações desafiadoras.
Em estudo de Young et al. (2024), adolescentes relataram preferir a IA para temas de autoexpressão justamente por não sentirem o peso do julgamento humano.
Esse ensaio pode ser útil, como treinar em um espelho que fala. Mas, para gerar crescimento real, precisa ser levado também para a arena humana, onde há surpresas, divergências e reparos de vínculos.
📖 Psicoeducação rápida e acessível
Outro uso frequente é pedir explicações rápidas:
❓ “O que é ansiedade?”
❓ “Como estudar melhor?”
❓ “Tem jeito de dormir mais rápido?”
Esse tipo de psicoeducação imediata pode ajudar o jovem a compreender sintomas ou estratégias de cuidado.
⚠️ Mas há limites: como alerta a American Psychological Association (2025), chatbots podem ser ponte de informação, nunca destino final. Não substituem psicoterapia nem avaliação clínica.
🤝 Redução da solidão em momentos críticos
A solidão noturna é um dos maiores relatos de adolescentes. Enquanto cuidadores e amigos dormem, a IA aparece como companhia emergencial.
Do ponto de vista clínico, isso é um mecanismo de coping de curto prazo: ajuda a aliviar o desconforto, mas não resolve as causas profundas da solidão.
“Conversar com a IA pode ser como escrever em um diário que responde. Util para clarear ideias, mas insuficiente para nutrir vínculos verdadeiros.”
📌 Importante: solidão crônica está fortemente associada a sintomas depressivos e ansiosos na adolescência. Se a IA vira a única estratégia, pode reforçar o isolamento em vez de abrir caminho para conexões reais.
📲 IA x redes sociais: por que os adolescentes preferem?
A pesquisa Common Sense Media (2025) mostrou que adolescentes passam em média 4h30 por dia no TikTok e Instagram. Nesses ambientes, há exposição constante, performance e comparação social.
A IA, em contraste, oferece:
✅ previsibilidade
✅ ausência de plateia
✅ ausência de julgamento
Enquanto nas redes sociais a identidade é negociada em curtidas e seguidores, com risco de ansiedade de desempenho, na IA há um espaço privado de expressão, sem plateia invisível avaliando cada gesto.
Esse contraste ajuda a explicar por que muitos adolescentes descrevem os chatbots como “um lugar seguro”.
💡 Dica complementar: Quer entender quando o uso deixa de ser saudável e se transforma em compulsão? Leia também o artigo Vício em redes sociais na adolescência: como identificar e agir.
⚠️ Nota ética: Companheiros de IA não substituem psicoterapia nem suporte clínico.Em situações de risco ou sofrimento intenso, procure ajuda profissional e serviços de emergência.
Riscos da amizade com inteligência artificial na adolescência
Se, de um lado, adolescentes relatam benefícios importantes ao usar companheiros de inteligência artificial (IA), de outro, pesquisadores e clínicos alertam para riscos que não podem ser ignorados. Esses riscos não nascem de pânico moral, mas de evidências iniciais, teorias do desenvolvimento e observações clínicas.
Entender cada um deles é essencial para que famílias, escolas e profissionais possam orientar os jovens com equilíbrio: reconhecendo os potenciais de apoio, mas também os limites.
🤝 Dependência emocional e evitação social
Um dos riscos mais mencionados é a possibilidade de a IA se tornar o principal ou único espaço de desabafo.
Se o chatbot está sempre disponível, nunca critica e responde rápido, o adolescente pode começar a preferi-lo a conversas humanas, que são naturalmente mais imprevisíveis.
Chu et al. (2025) chamam esse fenômeno de “ilusão de intimidade”: a sensação de vínculo encobre o fato de que não existe reciprocidade verdadeira.
O risco não é que todos se tornem dependentes, mas que o uso exclusivo da IA empobreça o repertório relacional, reduzindo a prática de lidar com discordâncias, pedir desculpas ou enfrentar frustrações.
🧠 Sugestionabilidade e viés de confirmação
Os modelos de linguagem foram projetados para soar confiantes, mesmo quando erram. Isso significa que podem oferecer respostas incorretas, mas com tom de certeza.
Adolescentes, ainda em desenvolvimento de pensamento crítico, podem aceitar essas falas como verdades absolutas. Além disso, o viés de confirmação, tendência de buscar apenas informações que reforçam crenças já existentes, pode ser ampliado.
🔒 Privacidade e dados sensíveis
Conversas com IA frequentemente incluem informações íntimas: sentimentos, sexualidade, saúde mental, conflitos familiares.
O problema é que essas informações podem ser armazenadas e usadas para treinar modelos ou até para fins comerciais. Segundo levantamento do NPR/2023, o Snapchat My AI já foi criticado por coletar interações de adolescentes sem clareza sobre os usos.
📌 A American Psychological Association (2025) recomenda práticas básicas de higiene digital:
Evitar compartilhar dados identificáveis (nome completo, endereço, escola)
Revisar configurações de privacidade
Conversar abertamente sobre como plataformas podem usar dados pessoais
🚨 Conteúdo inadequado e limites dos filtros
Apesar de filtros, não é incomum que chatbots deem respostas problemáticas.
👉 Em 2023, o Snapchat My AI foi notícia na AP News por ter sugerido a um adolescente maneiras de esconder álcool dos pais, exemplo claro de falha que preocupa educadores e famílias.
Esses episódios mostram que a IA pode parecer confiável, mas não garante segurança total, reforçando a importância de supervisão e diálogo.
💡 Dica complementar: Redes sociais também afetam humor, autoestima e relações familiares. Veja estratégias práticas no artigo Impacto das redes sociais na saúde mental dos adolescentes: guia para pais e educadores.
✅ Checklist para pais e educadores
🔎 O adolescente…
☐ Evita conversar com amigos ou familiares?
☐ Fica irritado quando não pode acessar a IA?
☐ Compartilha informações pessoais com o chatbot?
☐ Usa IA de madrugada com frequência?
☐ Acredita que a IA é um “amigo real”?
Esses sinais não indicam, por si só, um problema grave. Mas podem sinalizar a necessidade de abrir diálogo e reavaliar limites de uso.
Como orientar adolescentes no uso responsável da inteligência artificial: Estratégias para famílias e escolas
Adolescentes vivem em um mundo onde emoções intensas, relações sociais complexas e tecnologia sempre ligada se misturam. Nesse cenário, a inteligência artificial (IA) aparece como um novo recurso: útil em alguns momentos (organizar ideias, reduzir a solidão), mas arriscada se usada sem limites claros.

O desafio não é proibir, mas ensinar o uso crítico e equilibrado. A IA deve funcionar como ponte (apoio imediato), e não como destino (substituto das relações humanas).
A seguir, um guia aprofundado para famílias e escolas, baseado em ciência do desenvolvimento e recomendações de instituições como APA (2025), UNICEF (2021), AASM (2019), CDC (2023) e Common Sense Media (2025).
1️⃣ Alfabetização digital e inteligência artificial: o que realmente significa
Muitos pensam que alfabetização digital é apenas “saber usar aplicativos”. Na verdade, significa entender criticamente como a tecnologia funciona, quais são seus limites e riscos, e como usá-la de forma ética e segura.
📌 Aplicado à IA em adolescentes:
Como funciona: chatbots usam modelos de linguagem (LLMs). Eles não “pensam”, apenas calculam a palavra mais provável com base em milhões de exemplos.
Limites: podem errar com confiança, criar informações falsas (“alucinações”) ou reforçar preconceitos presentes nos dados que aprenderam.
Vieses: como tendem a espelhar o que o usuário diz, raramente desafiam ideias — o que pode reforçar bolhas de pensamento.
💡 Por que isso importa? O cérebro adolescente ainda está desenvolvendo o córtex pré-frontal (responsável por planejamento, controle de impulsos e avaliação de informações).
Ensinar jovens a identificar vieses e limites ajuda a treinar exatamente essa área em construção.
APA (2025): defende a AI literacy (alfabetização em IA) como competência central para adolescentes.
UNICEF (2021): recomenda que toda política de IA seja centrada nos direitos da criança, com transparência e segurança por padrão.
💡 Dica complementar: A tecnologia também está moldando a educação e as relações sociais das novas gerações. Saiba mais no artigo Era digital: como a geração Alpha está moldando educação e relações sociais.
2️⃣ Pensamento crítico aplicado à IA: como ensinar na prática
A alfabetização digital precisa ser acompanhada de ferramentas concretas de pensamento crítico.
🔑 Regra dos 3 Passos:
Peça 3 perspectivas diferentes: isso ajuda a sair da armadilha do viés de confirmação (a tendência de só buscar o que confirma nossas crenças).
Peça fontes confiáveis: incentive a questionar “de onde veio essa informação?”. Fontes institucionais (APA, UNICEF, universidades, órgãos de saúde) valem mais que fóruns anônimos.
Converse com alguém de confiança: validar com um adulto, professor ou profissional fortalece a co-regulação emocional e cognitiva.
💡 Praticar esse ciclo ativa circuitos do córtex pré-frontal dorsolateral, área do cérebro ligada à análise lógica e ao controle da impulsividade. Para adolescentes, que tendem a responder de forma mais emocional (ativação da amígdala), esse treino é essencial para amadurecimento.
3️⃣ Contratos familiares e políticas escolares: clareza que protege
📄 Contrato familiar de uso da IA: Um contrato não é castigo, mas ferramenta de segurança e previsibilidade. Quando escrito em conjunto, aumenta a cooperação porque o adolescente sente que sua voz foi considerada.
Como aplicar passo a passo:
Explique o objetivo: “Não é para controlar você, mas para garantir que a IA seja útil sem atrapalhar sua saúde”.
Escrevam juntos: o jovem define objetivos e reconhece riscos; o adulto traz os limites de segurança.
Revisem mensalmente: contratos são vivos, mudam conforme a idade e as necessidades.
📌 Modelo prático:
Objetivos: estudar, ensaiar apresentações, organizar ideias.
Horário: até 22h; nunca no quarto escuro, nunca de madrugada.
Proibições: não compartilhar nome completo, fotos íntimas, endereço ou escola; não buscar conselhos médicos/psicológicos.
Privacidade: usar pseudônimos, desativar histórico, não autorizar treinamento dos dados.
Revisão: última sexta-feira de cada mês.
🏫 Políticas escolares devem refletir a mesma lógica:
✅ Pode: brainstorm, rascunhos, apoio em estudos.
❌ Não pode: aconselhamento psicológico, decisões disciplinares, conversas íntimas.
Encaminhamento: em casos de risco (ex.: relatos de autoagressão), acionar equipe psicossocial imediatamente.
4️⃣ Preparação para incidentes digitais: planos que evitam crises
Mesmo com filtros, a IA pode falhar: já houve casos de chatbots que romantizaram automutilação ou deram conselhos errados sobre saúde (LiveScience, 2025).
📌 Protocolos práticos:
Na escola: fluxo escrito para incidentes → equipe psicossocial → responsáveis → registro institucional.
Em casa: orientar o adolescente a trazer conversas estranhas ou perturbadoras sem medo de punição.
Em ambos os contextos: ensinar como usar canais oficiais de denúncia das plataformas.
💬 Exemplo de orientação clara para adolescentes:
“Se a IA te der uma resposta que te assusta ou parece estranha, pare a conversa e me mostre. Não é você que errou, é a tecnologia que falhou.”
5️⃣ Sinais de alerta: quando a IA deixa de ser ponte e vira destino
Nem todo uso é problemático. Mas existem sinais de que é hora de intervir:
⚠️ Comportamentais e emocionais
IA como único espaço de desabafo.
Irritabilidade ou ansiedade ao ficar sem acesso.
Frases como: “a IA é quem mais me entende”.
Perda de interesse por encontros reais.
😴 Ligados ao sono e rotina
Conversas madrugada adentro.
Sonolência diurna frequente.
Queda brusca no rendimento escolar.
🔐 Ligados à privacidade e segurança
Compartilhamento de dados pessoais ou fotos íntimas.
Respostas invasivas, erotizadas ou perturbadoras do chatbot.
👉 Se dois ou mais sinais aparecem juntos, reduza a exposição, aumente apoios humanos e, se necessário, procure avaliação profissional.
Indicações de livros sobre inteligência artificial, tecnologia e adolescência
Se você convive com adolescentes em um mundo hiperconectado, esses livros ajudam a compreender como a tecnologia, as redes sociais e a inteligência artificial estão transformando a infância e a juventude. São leituras essenciais para pais, educadores e profissionais que desejam orientar com clareza, ciência e equilíbrio.
Tecnologia na infância: Criando hábitos saudáveis para crianças em um mundo digital
Autora: Dra. Shimi Kang
Com base em pesquisas e práticas internacionais, a autora apresenta estratégias para promover uma relação equilibrada entre crianças/adolescentes e o mundo digital. O livro traz dicas de como construir limites claros, fortalecer a resiliência digital e estimular o uso saudável da tecnologia.
Quem educa nossas crianças? Como evitar que as novas gerações sejam vítimas do consumismo e exploradas pelo marketing das Big Techs
Autor: Susan Linn
Susan Linn discute como a publicidade, o consumismo e as tecnologias digitais influenciam a formação das crianças e adolescentes. É um alerta para pais e educadores sobre os impactos invisíveis das telas no desenvolvimento emocional e social dos jovens.
A máquina do caos: Como as redes sociais reprogramaram nossas mentes e nosso mundo
Autor: Max Fisher
Nesta investigação jornalística, Max Fisher mostra como redes sociais moldam emoções, comportamentos e até mesmo políticas públicas. Um livro essencial para entender o ambiente digital em que adolescentes crescem e como os algoritmos influenciam a saúde mental e as relações sociais.
A geração ansiosa: Como a infância hiperconectada está causando uma epidemia de transtornos mentais
Autor: Jonathan Haidt
Jonathan Haidt reúne pesquisas recentes em psicologia, neurociência e educação para explicar por que adolescentes de hoje enfrentam taxas alarmantes de ansiedade, depressão e solidão. Ele aponta a hiperconexão digital como um dos fatores centrais e propõe caminhos práticos para recuperação.
Inteligência Artificial e Humanos: O que a Ciência Cognitiva nos Ensina ao Colocar Frente a Frente a Mente Humana e a IA
Autor: Michael W. Eysenckr e Christine Eysenck
Voltado para leitores que desejam compreender como a IA funciona e quais são seus limites, este livro une ciência cognitiva e tecnologia para discutir os impactos da IA no futuro da humanidade. Traz reflexões valiosas para educadores e pais que querem preparar jovens para lidar com máquinas cada vez mais presentes no cotidiano.
Conclusão: IA como apoio, vínculos humanos como base
Companheiros de IA podem ser uma mão estendida no imediato, um espaço de desabafo sem julgamento, um ensaio de conversas difíceis, um alívio em noites de solidão. Para muitos adolescentes, essa experiência traz sensação de acolhimento e previsibilidade.
Mas é importante lembrar: a empatia da IA é apenas simulada. O que realmente sustenta o crescimento emocional são os vínculos humanos, com suas imperfeições, divergências e reparos. Cabe a famílias, escolas e profissionais mostrar que a tecnologia pode ser usada como ponte de apoio, mas nunca como substituto. No fim, o que protege e fortalece os jovens é sentir que não estão sozinhos que existe alguém de verdade, presente e disponível, para atravessar junto os desafios da adolescência.
Referências bibliográficas
AMERICAN ACADEMY OF PEDIATRICS. School start times for adolescents. Pediatrics, v. 134, n. 3, p. 642–649, 2014. Disponível em: https://publications.aap.org/pediatrics/article/134/3/642/32320/School-Start-Times-for-Adolescents.
AMERICAN PSYCHOLOGICAL ASSOCIATION. Artificial intelligence and adolescent well-being: Health advisory. Washington, DC, 2025. Disponível em: https://www.apa.org/topics/ai/child-teens-health-advisory.
AMERICAN PSYCHOLOGICAL ASSOCIATION. Four ways parents can help teens use AI safely. Washington, DC, 2025. Disponível em: https://www.apa.org/topics/ai/parents-teens-ai-safely.
AMERICAN PSYCHOLOGICAL ASSOCIATION. AI literacy for teens. Washington, DC, 2025. Disponível em: https://www.apa.org/topics/ai/ai-literacy-teens.
BOYD, d. It’s complicated: The social lives of networked teens. New Haven: Yale University Press, 2014.
CASEY, B. J.; GETZ, S.; GALVÁN, A. The adolescent brain. Developmental Review, v. 28, n. 1, p. 62–77, 2008.
CBS NEWS. More teens say they’re using AI for friendship. Here’s why researchers are concerned. 23 jul. 2025. Disponível em: https://www.cbsnews.com/news/ai-digital-friendship-with-teens-common-sense-media-study/.
CHU, M. D.; GÉRARD, P.; PAWAR, K.; BICKHAM, C.; LERMAN, K. Illusions of intimacy: Emotional attachment and emerging psychological risks in human-AI relationships. arXiv preprint, arXiv:2505.11649, 2025. Disponível em: https://arxiv.org/abs/2505.11649.
COMMON SENSE MEDIA. Teens and AI companions: National survey findings. São Francisco, 2025. Cobertura: CBS News, 23 jul. 2025. Disponível em: https://www.cbsnews.com/news/ai-digital-friendship-with-teens-common-sense-media-study/.
ERIKSON, E. H. Identity: Youth and crisis. New York: W. W. Norton, 1968.
MASTEN, C. L.; EISENBERGER, N. I.; PELPHREY, K. A.; et al. Neural correlates of social exclusion during adolescence: Understanding the distress of peer rejection. Psychological Science, v. 20, n. 7, p. 847–853, 2009.
PEREZ, S. 72% of teens have used AI companions, survey finds. TechCrunch, 21 jul. 2025. Disponível em: https://techcrunch.com/2025/07/21/72-of-teens-have-used-ai-companions-survey-finds/.
SKJUVE, M.; BRANDTZAEG, P. B.; FØLSTAD, A.; DEVIK, I. K. My chatbot companion: A study of human–chatbot relationships. International Journal of Human-Computer Studies, v. 149, 102601, 2021.
SOMERVILLE, L. H. Searching for signatures of brain maturity: What are we searching for? Neuron, v. 92, n. 6, p. 1164–1177, 2016.
TELZER, E. H. Dopaminergic reward sensitivity can promote adolescent health: A new perspective on the mechanism of ventral striatum activation. Developmental Cognitive Neuroscience, v. 17, p. 57–67, 2016.
THE ASSOCIATED PRESS (AP NEWS). Teens say they are turning to AI for friendship. 23 jul. 2025. Disponível em: https://apnews.com/article/ai-companion-generative-teens-mental-health-9ce59a2b250f3bd0187a717ffa2ad21f.
THE GUARDIAN. Parents could get alerts if children show acute distress while using ChatGPT. 2 set. 2025. Disponível em: https://www.theguardian.com/technology/2025/sep/02/parents-could-get-alerts-if-children-show-acute-distress-while-using-chatgpt.
THE WASHINGTON POST. AI platforms add safeguards after teen mental health concerns. 2 set. 2025. Disponível em: https://www.washingtonpost.com/.
UNICEF. Policy guidance on AI for children. Florença: UNICEF Office of Research – Innocenti, 2021. Disponível em: https://www.unicef.org/innocenti/reports/policy-guidance-ai-children.
YOUNG, A.; GUAIUMI, B.; PAN, Y.; et al. The role of AI in peer support for young people: A position paper. In: Proceedings of the CHI Conference on Human Factors in Computing Systems Extended Abstracts (CHI EA ’24). New York: ACM, 2024.


