Publicidade

A AI precisa ficar adulta e isso pode demorar anos

Estamos mesmo com os dias contados para a AI ultrapassar a capacidade intelectual do ser humano? Ainda não!

18 de março de 2024 13:26
por:

Maria Luiza Reis é uma engenheira mecânica e PhD em Engenharia Nuclear, cuja carreira em tecnologia começou cedo e se destacou por sua contrib...

Ao contrário do que se tem debatido recentemente, ainda precisamos amadurecer essa tecnologia por um viés ainda não muito explorado. Premissas de convivência social. Assim como fazemos com as crianças, precisamos treinar a AI com mais do que apenas conhecimento.

Crianças nascem com uma inteligência surpreendente, rapidamente aprendem a superar obstáculos, a obter o que precisam, a se comunicar. Acompanhar o desenvolvimento de um bebê é fascinante, pois é nesse momento que entendemos como o ser humano é superior a tantos outros animais e como essa inteligência vem de nascença.

Vamos refletir como a capacidade intelectual do ser humano é construída e a partir de que momento recebemos o aval da sociedade para tomar decisões e assumir responsabilidades.


Ao mesmo tempo que ficamos fascinados com a rápida evolução de um bebê, podemos nos perguntar: se o ser humano é tão inteligente ao nascer, por que demoramos tanto para atingir a independência? A capacidade de viver em comunidade é o principal diferencial evolutivo do homo sapiens sapiens. Essa nossa competência é construída ao longo da vida e demora muitos anos para ser considerada segura de forma a não precisar mais de supervisão.

Não temos coragem de colocar uma arma de fogo na mão de uma criança, mesmo sabendo que ela pode ser treinada para manusear com habilidade, não é um problema de habilidade, é uma questão de responsabilidade!


A medida que crescemos, aprendemos a respeitar o próximo, a respeitar o pai e a mãe (está nas escrituras mais antigas), a se colocar no lugar do outro, a respeitar a hierarquia. Esse aprendizado de empatia é tão complexo que o ser humano leva quase 20 anos para ser treinado e, enquanto isso não acontece, outros humanos são os responsáveis pelo que ele faz, em particular: pais, professores e o Estado.


O que isso tem a ver com tecnologia? A inteligência artificial, AI, está bem próximo de ter uma capacidade de conclusão semelhante à do humano, mas está longe de atingir o grande diferencial da humanidade que é a capacidade de agir em favor do coletivo. Sem isso, o humano não sobrevive, ao contrário, se destrói facilmente.


Esse artigo da MIT Tech Review tem um apanhado soluções de AI que se apresentaram maravilhosas e, ao mesmo tempo, desastrosas: https://mittechreview.com.br/confie-nos-grandes-modelos-delinguagempor-sua-conta-e-risco

Precisamos assumir a responsabilidade de supervisionar e treinar as ferramentas de inteligência artificial, pois sabemos que só inteligência não basta, precisamos de ética, moral, respeito ao próximo, respeito às leis e, enquanto a AI não consegue fazer isso sozinha, o humano deve ser responsável pelas consequências dos seus atos.


Chamamos de alucinação quando a AI mente descaradamente, mas uma criança também mente! Criança não alucina, ela só não aprendeu que mentir é errado, ela ainda não aprendeu que é preciso conferir bem a informação antes de se pronunciar. Aliás, a vergonha é ser pego na mentira, é uma evolução humana que protege a comunidade de seguir instruções erradas. É essencial para a sobrevivência.


As novas GenAI ainda alucinam muito, ou melhor, ainda mentem descaradamente como uma criança que não sabe que isso é errado. O próximo passo e profundamente desafiador é ensinar a GenAI a ser uma adulta antes de aceitar o seu convívio no ambiente social e corporativo. Precisamos ensinar essas três características:

  1. Não inventar uma história, uma mentira sem fundamento;
  2. Pedir ajuda a alguém mais velho, mais experiente ou mais sábio quando não se tem certeza; e
  3. Apresentar uma justificativa razoável para suas decisões ou explicações.

    Essas três características são, na verdade, do ponto de vista algorítmico:

    1. Ter métricas de avaliação de certo ou errado (como nas provas);
    2. Ter canal de escape para interação com humanos em casos que a um percentual de certeza menor
    que X% (dependendo do risco);
    3. Ter auditoria completa e permanente das fontes e caminhos lógicos tomados em cada resposta.

Assumir essa postura com a AI, como estamos acostumados a assumir com os nossos pequenos humanos, está muito relacionado com as demandas da sociedade e certamente isso vai passar pelo interesse do Estado. A regulação da AI, que parece tão contraditória e acirra os ânimos nos debates, pode indicar que ainda não sabemos como lidar com essa criancinha tão genial que tomou conta das nossas vidas.

Publicidade

Desenvolvido por: Leonardo Nascimento & Giuliano Saito