Não sou contra a evolução dos tempos, nem fundamentalista em relação à crescente dependência relativamente à evolução tecnológica. Gosto de encarar os dispositivos e aplicações tecnológicos como as antigas malas de ferramentas que íamos buscar ao sótão ou à dispensa para reparar um cano ou pendurar um quadro. Estão ali para ajudar.
No entanto, a rapidez de difusão e de utilização do chat GPT levou-me a questionar acerca das potenciais ameaças da Inteligência Artificial, especialmente quando tão acessível ao comum utilizador não especializado ainda durante uma fase tão experimental. O utilizador comum não experimentado não terá – julgo eu – uma capacidade de utilização crítica de uma ferramenta tão acessível, tão apetecível e tentadora e, consequentemente, tão viciante.
Sou criativo de profissão e, como qualquer criativo, – penso eu – sinto algo de muito artificial na existência e utilização generalizada de uma ferramenta de inteligência artificial, passo a redundância.
Ainda assim e, desafiado por um amigo e acérrimo defensor da dita cuja, resolvi experimentar o chat GPT. No meu caso, usei-o como ferramenta para investigação de uma temática que queria abordar teatralmente. Em pouco mais de cinco minutos, foi necessário que eu corrigisse dados concretos do conteúdo de resposta às minhas questões e que me fora debitado como verdade absoluta na resposta dada pelo assistente virtual. Depois de corrigir três vezes consecutivas as informações que me eram prestadas, resolvi corrigir uma quarta vez, mas, desta feita, com uma rasteira propositada. Ou seja, depois de a ferramenta me ter dado razão em cada uma das três vezes que a corrigi, resolvi voltar a corrigir uma quarta correção (o dado estava realmente novamente incorreto), mas facultei uma informação também ela, dessa vez, intencionalmente incorreta. E “helás”! O expectável aconteceu. Depois de a corrigir 3 vezes, a inteligência artificial (talvez por ser precisamente artificial) “aprendeu” que eu era especialista no assunto e deu-me novamente razão ao que eu, por maldade, lhe tinha “ensinado” propositadamente mal. O que me levou a questionar toda a informação recebida sobre a temática anteriormente e que eu desconhecia e, por isso, não poderia corrigir, caso estivesse errada. Portanto, tive de verificar toda a informação prestada pela inteligência artificial, o que, neste caso específico, me fez perder mais tempo do que se eu tivesse feito a minha tradicional investigação de inteligência “humana”.
Obviamente, eu fiz apenas uma utilização da ferramenta, das mil e uma possibilidades de utilização que ela oferece. Acredito que na área das ciências exatas ela possa ser mais rigorosa e por isso mais útil.
O perigo aqui é poder não se saber usar, não se saber questionar, não se ter relação crítica com a ferramenta de inteligência artificial. Ou seja … usar a inteligência artificial sem inteligência humana. E viciar-se em não pensar, não estudar, não questionar, não criticar, não aprender.
A ideia é a inteligência artificial ajudar-nos a ser ainda mais inteligentes. Não é substituir- se a nós. Até porque somos nós – inteligência humana – que a ensinamos a ser artificial. Faz sentido? Ainda não. Mas se tudo correr bem, um dia fará.