Novos óculos inteligentes com IA levantam sérias preocupações em Portugal. A capacidade de aceder a informação ameaça discretamente a integridade de testes e exames nas salas de aula, desafiando métodos de avaliação tradicionais.
O cenário é cada vez mais familiar: tecnologia portátil, discretamente integrada em objectos do dia-a-dia, chega às salas de aula, abrindo portas a novas formas de acesso à informação durante momentos cruciais de avaliação. A mais recente vaga de inovação centra-se nos óculos com Inteligência Artificial (IA), dispositivos que prometem ser uma extensão digital da visão, mas que, nas mãos erradas, se transformam em ferramentas potentes para a batota. Educadores e instituições começam a alertar para este risco crescente, temendo que a “cábola virtual” alcance um nível de sofisticação sem precedentes.
Vários modelos de “smart glasses” ou “AI smart glasses” têm chegado ao mercado, vindos de gigantes tecnológicos e de empresas emergentes. Entre os mais conhecidos estão os Meta Ray-Ban Smart Glasses (agora com capacidades de IA integradas) e os Xreal Air (anteriormente Nreal Air), que projectam ecrãs virtuais. O custo varia significativamente, podendo ir de algumas centenas a mais de mil euros, tornando-os acessíveis a uma faixa considerável de estudantes. Segundo análises tecnológicas e notícias recentes, estes dispositivos, embora promovidos para entretenimento, navegação ou assistência pessoal, possuem funcionalidades que despertam apreensão no contexto académico.
A principal preocupação reside na capacidade destes óculos de exibir texto, imagens ou aceder à internet de forma discreta, muitas vezes controlados por voz, gestos subtis ou mediante uma ligação sem fios a um smartphone no bolso do aluno. Num exame, um estudante poderia, por exemplo, exibir fórmulas, datas históricas, ou até mesmo interagir com uma IA generativa através de voz baixa, ou texto introduzido no telemóvel emparelhado, recebendo a resposta directamente no pequeno ecrã projectado nas lentes ou no campo de visão. A discrição é chave: ao contrário de olhar para um telemóvel ou um smartwatch, o acto de “ler” algo nos óculos é muito mais difícil de detectar por um vigilante.
Notícias em órgãos de comunicação social internacionais e blogues especializados em tecnologia e educação têm vindo a sublinhar este dilema. A rápida evolução da IA integrada nestes dispositivos, permitindo respostas mais complexas e contextuais a perguntas, agrava o problema. “A facilidade com que a informação pode ser acedida e apresentada discretamente é o grande desafio”, afirmou recentemente um especialista em segurança digital, citado por um portal noticioso americano. “Não se trata apenas de aceder a notas pré-gravadas, mas sim de ter uma IA a ajudar em tempo real durante o exame.”
As utilizações para a batota são diversas e imaginativas. Um aluno com “AI smart glasses” e um telemóvel emparelhado poderia:
1. Exibir “cábulas virtuais” guardadas no telemóvel ou na cloud.
2. Aceder a sites da internet para procurar respostas.
3. Utilizar uma aplicação de IA (como ChatGPT ou similar) no telemóvel, fazendo perguntas por voz ou texto discreto, e vendo a resposta aparecer nos óculos.
4. Receber instruções ou respostas de um cúmplice fora da sala, que envia as informações para o telemóvel emparelhado.
5. Usar a câmara (se disponível e discretamente activada) para capturar uma pergunta e usar uma IA para a resolver.
Perante este cenário, as preocupações dos educadores e das autoridades são palpáveis. O desafio é como fiscalizar dispositivos que se assemelham a óculos comuns. Proibir todos os óculos na sala de exame é uma opção drástica e potencialmente discriminatória para quem deles necessita por razões de visão. Desenvolver métodos de detecção discretos e eficazes é complexo e caro. “Estamos numa corrida contra a tecnologia”, comentou um director de escola secundária num fórum online, discutindo o tema. “Mal implementamos uma regra, aparece um novo gadget que a contorna.”
Os desenvolvimentos nesta área apontam para uma necessidade urgente de repensar os formatos de avaliação. Exames baseados puramente na memorização e na reprodução de informação tornam-se cada vez mais vulneráveis. Há uma pressão crescente para se focarem em competências que a IA e o acesso rápido à informação ainda não conseguem replicar facilmente: pensamento crítico, análise, criatividade, resolução de problemas complexos e aplicação de conhecimentos em contextos novos. Algumas instituições já ponderam ou estão a implementar exames orais, projectos práticos, avaliações contínuas ou testes que permitem consulta mas exigem análise e síntese profunda.
A proliferação de dispositivos “wearables” com capacidades de IA, incluindo os óculos inteligentes, representa um ponto de viragem para o sistema educativo. A facilidade com que podem facilitar o acesso não autorizado a informação durante avaliações exige uma resposta concertada. O futuro da educação e dos processos de exame dependerá da capacidade das instituições de se adaptarem, encontrando formas de avaliar genuinamente a compreensão e as competências dos alunos num mundo onde a informação está, literalmente, ao alcance dos olhos.