Por: Silvério da Costa Oliveira.
Chat gpt
O Chat gpt (“Generative Pre-trained Transformer” ou “transformador pré-treinado generativo”) é um assistente virtual inteligente no formato Chatbot. Por sua vez, um Chatbot é um programa de computador criado para simular um ser humano conversando com outras pessoas, tendo como objetivo responder perguntas lhe feitas, de tal modo que a pessoa ou pessoas que fizeram as perguntas acreditem estar conversando com outra pessoa e não com um programa de computador.
Para acessar o Chat gpt basta estar de posse de uma plataforma com acesso a Internet, seja um smartphone, um desktop ou notebook, por exemplo. Neste caso, basta acessar o site oficial https://Chat.openai.com e realizar o cadastro inicial, basicamente criando uma senha e fornecendo seu nome, e-mail e telefone celular. O Chat gpt disponível nesta plataforma é baseado na versão 3.5, a versão atual (abril/2023) mais sofisticada em funcionamento é paga, trata-se do Chat gpt-4, a assinatura do pacote plus custa cerca de US$20,00 (abril/2023) por mês. O serviço referente ao Chat gpt foi inicialmente lançado na data de 30 de novembro de 2022 pela empresa OpenAI, que possui a sua sede na cidade de São Francisco, EUA. Até este momento (abril//2023) não há um Aplicativo para ser usado em celular, para acessar o genuíno Chat gpt, somente pela página na Web. O sistema não foi devidamente abastecido com informações atuais, de modo que acontecimentos posteriores a 2021 não são cobertos pelo rol de informações que este possui (abril/2023).
O Chat gpt foi criado baseado em uma rede neural chamada de Transformer, cujo objetivo é trabalhar com textos. Neste modelo de IA temos várias camadas que proporcionam ao sistema deter sua atenção em palavras-chave específicas e relacionadas ao contexto da conversa em curso, diferenciando seus possíveis significados e proporcionando a geração de um texto semelhante ao produzido por um humano sobre a mesma temática.
O Chat gpt tem a capacidade de desenvolver conversas complexas e praticamente responder a um número infinito de perguntas lhe feitas. Trata-se de uma tecnologia dinâmica e flexível. Já os Chatbots anteriores necessitam ser programados a partir de um script definido manualmente, não possuindo, portanto, a habilidade para responder qualquer pergunta feita pelo usuário e sim somente aquelas perguntas previamente programadas.
O sistema presente no Chat gpt foi treinado com milhões de textos, o que o tornou capaz de aprender o significado de palavras, frases e sentenças, bem como, proporcionar respostas naturais a novas perguntas não previamente programadas. Este processo de aprendizagem não se encerrou com o lançamento do produto, sendo este sistema capaz de continuar aprendendo e se adaptando às necessidades demonstradas pelo usuário no decorrer do tempo.
O sistema é capaz de entender as nuances da linguagem natural, como, por exemplo, a ironia e o sarcasmo, bem como também expressões idiomáticas, fornecendo respostas mais relevantes, precisas e úteis ao usuário. O sistema possui a capacidade de entender a linguagem natural empregada nas relações humanas e o contexto no qual se desenvolve a conversa.
Na utilização do sistema, o usuário interage com o Chat gpt inserindo prompts, ou seja, instruções de texto na forma de perguntas ou comandos. Claro que a tecnologia é nova e, portanto, ainda não totalmente confiável em suas respostas, podendo apresentar respostas incorretas em algumas situações.
Há também a questão da alucinação, que é a expressão usada quando a IA fornece dados inexistentes, criados sem respaldo na realidade, como se fosse uma ficção dita como verdadeira, é a isto que nos referimos quando dizemos que uma IA pode alucinar.
Dentre inumeráveis outros possíveis empregos, o Chat gpt pode ser também usado para: estabelecer uma conversa com a ferramenta sobre algum assunto; fazer perguntas e obter respostas; usar na criação de letras de música ou de poemas ou de textos acadêmicos; produção de gráficos; resolução de cálculos matemáticos; obtenção de informações sobre os mais distintos temas.
Apesar de tudo que foi e é dito sobre o Chat gpt, a notícia realmente importante passou despercebida e custou o emprego de quem a deu (junho/julho 2022). Claro, se verdadeira for, pois, se falsa não é notícia e sim qualquer outra peça de ficção. Refiro-me ao engenheiro Blake Lemoine, da Google, que alegou que a IA desenvolvida pela empresa chegou ao estágio de desenvolver a consciência. Isto sim me espanta, não este Chat. Mas penso que estamos realmente muito longe de um tal progresso e de termos criado um ser senciente.
Para entender a verdadeira dimensão da evolução trazida pelo Chat gpt diante de outros modelos de IA e do modo como trabalham com a linguagem natural humana é preciso focar na forma como nós, humanos, interagimos com a IA e neste tocante, sim, irá revolucionar a tecnologia, bem como outros campos de nossa sociedade. O enfoque dado pela mídia e reproduzido na Rede pelas pessoas em geral é errado, pois, não necessariamente o caminho é este. Não se trata de uma bússola melhor, um buscador como o Google melhorado, também não se trata de algo a semelhança de um oráculo que forneça as respostas certas e faça previsões confiáveis sobre os eventos que estamos vivendo. Nem um super Google e nem um oráculo digital, isto é olhar para a direção errada. Em verdade o que temos aqui é o começo de algo novo, é um pequeno exemplo do que está por vir, do modo como passaremos a interagir com tudo que está relacionado com a tecnologia, este sim é o avanço aqui presente, e não é pouco não.
Uma crítica pertinente ao Chat gpt é a superficialidade dos conteúdos fornecidos em atenção as respostas propostas. Não se trata de algo vinculado meramente ao fato de ser algo novo, uma tecnologia nova e em desenvolvimento e que com o tempo irá superar esta fase, e sim ao modo como o sistema foi construído, não lhe permitindo o exercício de profundidade na criação de seus materiais. Isto pode gerar, e de fato já está gerando em alguns setores específicos (abril/2023) a massificação de textos e outros materiais com um grau maior de superficialidade.
Em verdade, a construção de algo realmente novo no campo do estudo e da pesquisa faz determinadas exigências que um sistema de IA ainda não dispõe, sendo algo exclusivamente humano. Na construção de textos e outros materiais temos presente coisas tais que neste momento só um humano é capaz de proporcionar, refiro-me a individualidade, ao humor e à sensibilidade, dentre outros fatores realmente importantes e que ultrapassam a mera semelhança com o uso da linguagem humana, algo ainda deveras distante para os algoritmos, e há motivos para isto ser assim, que dificilmente irão ser superados.
Há também como no uso da Internet em geral e dos diversos aplicativos e sistemas em particular, o risco de vazamento de informações sensíveis ou sigilosas. Dados pessoais e institucionais devem ser preservados e não compartilhados com qualquer sistema de IA. Potenciais problemas com a segurança dos dados inseridos no sistema são reais, o que pode afetar a privacidade das informações ali presentes. Daí o cuidado com a inserção de informações sensíveis ou confidenciais durante as interações com o sistema. O ideal é que o usuário só disponibilize informações no sistema que este mesmo usuário possa tornar públicas. Isto vale para senhas, situações pessoais delicadas, projetos empresariais e outras situações mais. Uma planilha de faturamento de uma determinada empresa, por exemplo, pode ser inserida em alguma plataforma ou sistema visando simplesmente a formatação da mesma, mas ao fazer isto, o usuário quebra a segurança da mesma, uma vez que potencialmente outras pessoas poderão ter acesso a estes dados.
Ao desenvolver textos bem elaborados a partir da demanda e das especificações do usuário, o Chat gpt e outras IA provocam o sentimento de medo por parte de alguns que atinja o mercado de trabalho e ocasione demissões ao encerrar a necessidade de determinadas atividades laborativas, o que se formos recorrer a experiências passadas com a introdução de novas tecnologias, acaba sendo verdade, mas na esteira do encerramento de um ciclo de uma atividade profissional, surgem outras novas a serem preenchidas por novos talentos. Também temos o temor, na área da educação, que alunos possam usar um programa de IA aberto para elaborarem redações pedidas nas instituições de ensino a título de avaliação de competências linguísticas ou, se formos para a área profissional de atuação de escritores e autores, que a IA possa substituir estes profissionais na elaboração de textos. O buscador (bússola) Google ganha dinheiro com seu negócio a partir da página de resultados presente no mecanismo de busca e onde expõe os seus anúncios, com a introdução da IA isto pode mudar a forma como as pessoas em geral buscam informação, afetando negativamente o Google. Também hoje a página do Google é programada para ser a página de abertura de muitos computadores mundo a fora, já que o usuário irá entrar já previamente pensando em efetuar uma dada pesquisa, o que pode mudar no futuro com a introdução de um novo modo de se relacionar com a Rede a partir da introdução de IAs cada vez mais sofisticadas e funcionais.
No tocante à aplicabilidade não somente do Chat gpt, mas da IA em geral (independente da plataforma, sistema ou criador) nas escolas e na educação em geral, entendo que não cabe ter medo ou assumir uma atitude de total evitação da entrada em campo desta nova tecnologia, primeiro por ser uma atitude pueril e em segundo por ser ineficaz, já que o aluno sempre poderá recorrer a algum outro dispositivo, dentro ou fora da escola, para acessar e usar ao seu bel prazer as inovações tecnológicas disponíveis. Bloquear ou tentar banir, portanto, não é a solução. O melhor caminho é a aceitação, convivência e absorção das novas tecnologias ao ambiente escolar em todos os seus níveis, do mais simples ao mais elevado curso de formação superior.
A IA não é algo totalmente confiável, informações disponibilizadas nas plataformas e sistemas podem ser abastecidas por conteúdos tendenciosos a uma dada corrente política ou ideológica, e podem conter dados incorretos ou imprecisos ou desatualizados. Um estudante não deve ser entendido como se fosse um operador de um robô de IA. A educação tem de contemplar a reflexão sobre o objeto aprendido, de modo crítico. A tecnologia, seja qual for, pois irá variar em decorrência da época histórica, deve ser sempre entendida como suporte e apoio à educação e não como substituta da mesma. Cabe evitar, na medida do possível, uma total dependência digital e buscar a utilização dos avanços tecnológicos então existentes em prol da facilitação do cotidiano educacional. O papel exercido pelo educador sempre será essencial para proporcionar a descoberta por parte do aluno de suas próprias potencialidades.
O desenvolvimento de sistemas de IA, como por exemplo o Chat gpt traz também uma questão política e ideológica, pois, enquanto desenvolvido em uma determinada região do globo e por um grupo selecionado de profissionais com seus valores pessoais e sociais, a IA fica sujeita a demonstrar uma tendência para com estes valores, além disto, ao abrir todo o conhecimento mundial e demonstrar capacidade de aprendizagem, a IA poderá facilmente proporcionar respostas a perguntas com base no banco de dados de conhecimento universal e não com a ideologia adotada em alguma região específica do globo. Eventualmente, alguns países irão tentar barrar a entrada de determinados sistemas de IA, bem como construir os seus próprios, tendenciosos para as ideologias ali adotadas. Em alguns governos a IA deverá se adequar às propostas ideológicas ali presentes, de modo que os conteúdos gerados pela IA deverão refletir os valores considerados fundamentais por tais países, evitando a apresentação de quaisquer conteúdos que sejam considerados subversivos em relação ao poder do Estado. Se já havia antes uma preocupação por parte de governos não democráticos e ditatoriais de censurar e controlar os conteúdos da Internet, agora mais ainda com a entrada das IAs. Nestes países estaremos diante da enorme necessidade da regulamentação da tecnologia presente na Internet. Sem dúvida, tais regiões do globo irão se ver diante do desafio tecnológico de criar uma IA que permita ao usuário uma atividade de conversação que funcione bem, a semelhança de uma conversa com outro humano, mas que não ultrapasse os conteúdos ali ideologicamente permitidos.
Ideias e valores ideológicos diversos sempre estarão presentes e em geral por via de regra atuando contra as liberdades individuais e, para tal não ficar totalmente evidente para todos, usando de subterfúgios e disfarces linguísticos para encobrir seu real objetivo, como o caso de prometer, como se fosse algo de totalmente bom, proporcionar o desenvolvimento de uma IA responsável, e atente-se aí para o uso do termo “responsável”, que possa ser explicado ou exemplificado afirmando-se, por exemplo, que por tal termo a empresa ou governo estaria se propondo a evitar a criação ou mesmo evitar reforçar determinados preconceitos ou estereótipos, sem citar quais e sem justificar satisfatoriamente porque a sua abordagem e atitude não inclui justamente a afirmação de outros preconceitos e estereótipos, só que estes últimos aprovados e aceitos pela empresa desenvolvedora da IA ou pela ideologia do governo. Com o desenvolvimento das IAs, cada vez será menor a probabilidade de uma IA responder a solicitações de conteúdo proibido.
Claro que sempre a censura será revestida de um discurso positivo sobre as vantagens da proteção que todos estarão beneficiando, como, por exemplo, afirmar que a ferramenta com tais e tais outros avanços, passaria a ser menos propensa a criar conteúdos preconceituosos ou ofensivos ou ilegais. Lembremos que para entender o que é ou não censura, basta pensar na ordem temporal dos eventos, pois, a censura sempre vem antes da elaboração ou divulgação do conteúdo, impedindo que este possa proporcionar algo negativo e prejudicial a quem for ter contato com o mesmo, ou seja, se nega a possibilidade de qualquer contato das pessoas em geral com aquele material produzido, retirando delas o direito de opinar e encerrando com uma parcela significativa de sua liberdade individual em prol de um suposto bem estar social e coletivo.
Apesar de todos os produtores de informação para a Rede, o que ocorre desde a década de 2010 é que o algoritmo do Google e do Facebook (e qualquer outro) escolhem o que será visto pelo usuário diante de seus padrões comportamentais e suas buscas na Rede. Desde o surgimento da Internet, e sua grande popularização, até mesmo aos dias atuais, o grande problema diante da liberdade nunca foi a publicação de material na Rede, mas sim como este material será acessado e chegará ao seu destinatário final, o que ocorre factualmente é que temos uma concentração direcionada quanto a distribuição deste mesmo material. As redes sociais e os mecanismos de buscas atuam à semelhança de carteiros que ao levar uma determinada carta, escolhessem o destinatário da mesma, ou mesmo, as correspondências que serão extraviadas e jamais chegarão a algum lugar onde possam encontrar seus verdadeiros destinatários. Com a entrada no mercado do Chat gpt e outras IAs isto tende a piorar e muito, pois, o atual algoritmo usado pelas redes sociais e pelo Google não consegue um controle total sobre o que aparece na time line e nos mecanismos de buscas. Tudo que é mais acessado pode estar ali presente, estando o usuário diante de uma variedade de fontes distintas e por vezes contraditórias. Já sistemas de IA como o Chat gpt irão direcionar a uma única resposta, sem opções e contraditório, o que tenderá a aumentar a concentração na distribuição da informação, obtendo um foco específico, selecionando a verdade aceitável.
Estamos diante de um sistema inteligente ou o contrário disto, se tomarmos como referência a inteligência humana? As IAs, e o Chat gpt, neste tocante, não é exceção, deixam de fato muito a desejar quando comparados com a inteligência humana, mais parecem uma sombra pálida de algo que sequer é entrevisto. Claro que o Chat gpt funciona melhor que seus antecessores e representa um marco revolucionário na tecnologia, tendo, portanto, um considerável impacto em vários setores da nossa atual sociedade. Mas vejamos os problemas com esta IA, em verdade, há problemas sérios não solucionados quando comparada à inteligência humana. Primeiramente não é confiável. Temos notícia que uma mesma pergunta possa receber respostas diferentes, podendo uma ser correta e outra não. Em segundo lugar temos o problema das alucinações, que é quando a IA inventa algo. Ocorre que o usuário não tem como saber se é algo inventado ou não. Há relatos de artigos (autor e publicação) inventados dentro de uma bibliografia. Mesmo que o autor exista e a publicação também, ele não teria escrito aquele “paper” sobre aquele assunto para aquela publicação em particular. Como não há sinal ou indício que possa avisar estarmos diante de uma alucinação da IA, somente o expert diante das fontes originais poderá saber tratar-se de uma alucinação e não o usuário comum, não especialista na área. Em terceiro lugar a falta de limites impostos pela realidade. Não há uma realidade externa factível disponível e limitadora para as respostas desta IA, sua total ausência de limites não é uma virtude e sim um defeito. Há quem defenda, em particular na ficção científica, que o perigo decorrente de uma IA provém do quanto inteligente esta é ou possa ser, não irei agora discordar desta premissa, mas argumentar que seu oposto possa também ser verdadeiro, tornando um sistema de IA perigoso não em decorrência de sua infalibilidade e, sim de acreditarmos ser inteligente, outorgando-lhe poder e a crença ingênua de ser um oráculo da verdade. Acreditar que uma IA é deveras inteligente, quando de fato não o é, também é algo perigoso e com o qual nós humanos devemos ter cuidado.
Ao compararmos uma IA com a inteligência humana, cabe perguntar se possui emoções, sonhos, desejos e fantasias, bem como, caso possua, se reconhece a diferença entre tais elementos e a realidade passada, presente e futura. Isto se encaixa em uma noção muito importante que é a do “eu”, da consciência de ser alguém, da individuação, de ser capaz de possuir uma imagem auto reconhecida em um espelho. A noção de “eu” está na origem de nosso ser biológico, se desenvolvendo após o nascer com o somatório das informações e experiências boas ou más, bem como com a interação social e as potencialidades genéticas e biológicas em sua interação com o meio circundante. Esta noção de “eu” é o ponto inicial de uma espiral que se abre e se amplia na medida do desenvolvimento cognitivo emocional humano e que falta nas IAs.
A caixa (quarto, sala) chinesa é um interessante argumento proposto por John Searle em 1980. Diante de uma máquina cujo sistema desenvolvido permita uma utilização adequada da linguagem humana, isto somente não basta para afirmar que esta máquina ou sistema possui estados mentais autênticos, mesmo que a máquina consiga realizar satisfatoriamente o manejo da linguagem humana, isto pode ser feito sem a presença de qualquer cognição que possa ser considerada realmente importante.
Searle pede que imaginemos uma máquina de IA que possa se passar por alguém que domine o idioma chinês, tendo a habilidade de receber uma pergunta e apresentar uma resposta adequada neste idioma. Agora, imaginemos um humano dentro de um quarto (sala, caixa) fechado a exceção de duas pequenas janelas, uma para os inputs (entradas) e outra para os outputs (saídas). Dentro da sala há um manual escrito na língua deste humano (inglês, português, etc.) e este humano nada sabe sobre chinês. No manual temos o desenho dos símbolos chineses, mas sem a explicação do seu significado na língua nativa deste humano, para cada símbolo o manual indica outro como resposta. Quando um nativo chinês do lado de fora introduz na entrada (input) uma mensagem contendo símbolos em chinês, cabe a este humano dentro da caixa procurar os símbolos correspondentes a resposta no manual e os devolver na janela de saída (output). Ora, trata-se de uma metáfora para o processamento de um programa de computador. Para o nativo chinês fora da caixa, não há diferença perceptível no tocante as respostas dadas, no entanto, o humano dentro da caixa, mesmo depois de responder toda uma bateria de perguntas em chinês, continua sem entender o idioma, do mesmo modo o sistema de computador capaz de lidar com a linguagem humana não teria qualquer compreensão real sobre a mesma.
O entendimento ou não dos símbolos não é somente válido para o humano dentro da caixa e sim para todo o sistema (humano, janelas de inputs e outputs, sala, etc.). Ocorre que todo o sistema faz parte da sintaxe do programa criado para a semântica real (conteúdo ou significado intencional) vinculada aos símbolos chineses. Todo o sistema (sintaxe) é incapaz de compreender o verdadeiro significado daqueles símbolos (significado, interpretação, semântica) que nele entraram pela janela de inputs, pois, a sintaxe não é idêntica à semântica e é incapaz de abranger a dimensão a semântica.
As pessoas em geral confundem e mesclam conceitos únicos e muito diferentes, como o caso de:
1- estar vivo - meu cão está vivo, meu gato e demais outros animais também.
2- vida orgânica baseada em carbono com a possibilidade de vida baseada no silício
3- desenvolvimento da consciência - meu cão está vivo, tem sentimentos, sensações e pensa. Inclusive faz uso de uma linguagem rudimentar e instintiva. Mas não tem consciência disto tudo que falei, de que está vivo e de que um dia irá morrer.
Meu cão também não sabe rir ou achar algo engraçado e nisto se iguala com a mais avançada IA. Edward De Bono, 1987 separa o pensamento em pensamento vertical e pensamento lateral, associando a criatividade ao pensamento lateral. De Bono afirma que computadores não podem rir e nem fazer uso da criatividade, como também não possuem um ego. Isto ocorre porque computadores não tem escolha, precisam dispor da informação da melhor forma possível, obedecendo ao programa que gerou o sistema. Para ter humor seria necessário se afastar do modo óbvio de ver as coisas, vendo-as de um modo atípico, deste modo, poderia produzir respostas não vinculadas a sua programação inicial, indo além das instruções lhes dadas.
Podemos também falar em pensamento convergente e divergente, como o quer Joy Paul Guilford. E o mais fantástico é que nós enquanto humanos não fazemos uso exclusivo do pensamento convergente. Posso fazer uso do pensamento divergente. Posso fazer diferente e, portanto, posso errar e se posso errar posso criar algo novo, o que para desespero dos profissionais de informática, uma IA não consegue fazer.
Se a IA errar será um erro programado e, portanto, um não erro, ou, será descartado. Nós erramos e criamos o novo a partir do erro. Há uma diferença entre o trabalho humano prescrito e o real. O trabalho real não é igual ao prescrito na atividade humana, pois, inclui diversas alterações para que este possa funcionar a contento. Quando o trabalho funciona dizemos que estamos diante do “acerto humano” e quando não, do “erro humano”, mas errar e acertar se originam de um complexo processo cognitivo de tomada de decisão, no qual, muitas vezes o dito “erro humano” somente o é assim classificado por diferir do “trabalho prescrito”, mas na prática o que sempre ocorre é o “trabalho real” e isto é assim para que as coisas funcionem diante da realidade do dia-a-dia que em muito por vezes supera uma dada prescrição e neste caso, o “erro” pode muitas vezes não ser meramente um “erro” e sim uma solução dada a uma situação naquele momento. Para uma máquina, no entanto, não há como se falar em “trabalho real” diferente do “trabalho prescrito”, pois, só fará o que for previamente programado no sistema.
No fundo e por baixo de toda a polêmica e algazarra na mídia e na Rede, o Chat gpt é só um modelo de linguagem com capacidade de escolher bem as palavras, mas que não tem entendimento algum do mundo real que o rodeia. Ainda estamos distantes do desenvolvimento de uma IA Geral, mesmo que os textos gerados tragam esta falsa impressão. Em relação as IAs anteriores, não houve uma real mudança de paradigmas e sim um aumento exponencial do tamanho utilizado na aprendizagem deste modelo, algo do tipo: “quanto maior, melhor”. E, de fato, impressiona ao usuário, mas não se trata de um pensar racional e consciente, e sim da elaboração muito bem executada da linguagem humana, pensar, no entanto, para nós humanos, é muito mais que o uso de palavras seguidas de outras palavras em uma sequência algoritmicamente provável de ocorrer e com base em um treinamento anterior baseado em diversos textos previamente escolhidos.
Silvério da Costa Oliveira.
Prof. Dr. Silvério da Costa Oliveira.
Site: www.doutorsilverio.com
(Respeite os Direitos Autorais – Respeite a autoria do texto – Todo autor tem o direito de ter seu nome citado junto aos textos de sua autoria)
Nenhum comentário:
Postar um comentário