Por André Hemerly Paris, Associado III do Instituto Líderes do Amanhã
A última revolução tecnológica trouxe consigo avanços nas áreas da Inteligência Artificial (IA), de Deep Machine Learning (DML) e da automatização robótica. É surpreendente o fato de que somente uma fração destes avanços já foi apresentada à humanidade. Além disso, as fronteiras da inteligência artificial estão em acelerado processo de expansão, como recentemente evidenciado a partir dos lançamentos do ChatGPT, pela Microsoft, e do Bard, pela Google.
Especialmente a inteligência artificial está remodelando a maneira como vivemos, trabalhamos e nos relacionamos. A capacidade de aprendizado, análise de dados e automação promete uma série de benefícios, desde diagnósticos médicos mais precisos, descobertas de curas de enfermidades, cidades mais eficientes, resolução de problemas matemáticos complexos, até orientações para uma vida mais saudável ou roteiros de viagens personalizados.
No entanto, na medida em que a IA se expande, possíveis usos destinados a gerar danos a indivíduos preocupam a humanidade. O ChatGPT, por exemplo, já foi utilizado para ensinar o usuário sobre como construir uma bomba ou como realizar um ataque cibernético.
Da mesma forma, vieses que permitiram a discriminação por gênero já foram identificados nos algoritmos de um sistema de análise de perfil para a concessão de promoções de carreira, e tecnologias de reconhecimento facial apresentaram níveis divergentes de proficiência em confirmar a identidade de indivíduos a depender de sua etnia, o que resultou em falsos positivos que originaram a prisão de inocentes nos EUA.
Igualmente, existem preocupações éticas quanto à apropriação de tais tecnologias por parte do Estado, especialmente quanto a seu uso para fins de vigilância. As mencionadas tecnologias de reconhecimento facial, por exemplo, podem ser utilizadas para o monitoramento de cidadãos sem o seu consentimento, atentando contra sua privacidade e sua liberdade de movimento.
A distopia imaginada por Orwell, em sua clássica obra “1984”, está cada vez mais factível. A “verdade” nunca esteve tão ameaçada com a chegada de tecnologias capazes de criar falsos conteúdos audiovisuais que chegam próximos à perfeição.
A China, por exemplo, caminha a passos largos na direção do uso da tecnologia para a supressão de liberdades individuais. Por lá, já foi implementado um sistema de vigilância em larga escala de vias públicas, o qual já foi utilizado para reprimir indivíduos que possuem ideais políticas contrárias nas manifestações de Hong Kong e para perseguir minorias étnicas no interior do país.
Nesse contexto, muitas vozes surgem na defesa de uma regulação voltada para a imposição de limites ao uso indiscriminado de tecnologias relacionadas à inteligência artificial, especialmente em razão das consequências graves e até fatais que tal tecnologia pode ter em algumas áreas (como o setor de saúde, de segurança pública e de transporte).
Aqueles que compartilham dessa visão acreditam que a regulação pode garantir que a IA seja desenvolvida e usada de maneira segura. Argui-se que uma regulamentação poderia estabelecer padrões de segurança e responsabilidade, além de garantir que os sistemas de IA sejam testados e verificados antes de serem implementados em situações de alto risco, como aquelas citadas acima.
No entanto, existem alguns problemas nessa abordagem. Primeiramente, quanto às preocupações relacionadas ao uso da tecnologia de inteligência artificial em setores de alto risco, é importante destacar que eles possuem tal classificação por um motivo. Antes de, prematuramente, se defender uma regulação da IA em razão dos riscos que áreas, como a de saúde, de transporte ou de segurança pública apresentam, é essencial que se verifique se a introdução da IA aumentará ou diminuirá tais riscos.
Afinal, exemplos passados da introdução de tecnologias nas referidas áreas (como o airbag, a utilização de robôs para condução de cirurgias e o acoplamento de câmeras nos uniformes de agentes de segurança púbica) demonstram que, ao contrário de aumentar, a adoção de novas tecnologias reduziu a incidência de eventos graves ou fatais em tais setores.
Outro ponto, mais pragmático, se refere à forma como tal regulação seria realizada. Ainda que contribuições de especialistas possam ser conferidas ao longo do processo legislativo, fato é que, em última análise, a legislação será elaborada por representantes legislativos com um conhecimento extremamente limitado sobre o tema.
Igualmente, o dinamismo tecnológico é tamanho que qualquer esforço legislativo está fadado a nascer desatualizado, a realidade que pretende regular já não será a mesma. Como disse Andy Grove, em sua obra Only the Paranoid Survive: “Na tecnologia, tudo o que pode ser feito será feito”.
Do mesmo modo, um ambiente regulatório restritivo representa dois desserviços: cria barreiras significativas tanto para a constituição de novos negócios, em razão dos custos necessários para a adequação à nova regulação, como para as empresas já existentes explorarem novas fronteiras da IA; e reduz a velocidade das inovações e do avanço da tecnologia de IA, ao limitar a liberdade de experimentação essencial para sua natureza baseada em aprendizado contínuo a partir de dados.
Tal limitação prejudica o aprimoramento dos algoritmos de inteligência artificial, sem acesso a dados suficientes e diversificados, a IA se tornará menos precisa e eficaz, o que, consequentemente, reduz suas aplicações e benefícios potenciais.
Outra questão que deve ser considerada é um efeito colateral inerente à criação de qualquer regulação estatal: existe um custo por trás do aparato necessário para criar normas legais ou regulatórias e para conduzir ações destinadas ao monitoramento de seu cumprimento e responsabilização de infratores.
Os valores necessários para arcar com esses custos saem de um mesmo lugar: do bolso do cidadão por meio de impostos. Desse modo, os indivíduos que integram a sociedade brasileira teriam o fruto de seu esforço coercitivamente subtraído para a criação de uma regulação que já nasce ineficaz, em razão do dinamismo da tecnologia que pretende regular.
De qualquer modo, em nenhum momento do presente texto colocou em dúvida a relevância das preocupações mencionadas anteriormente, mas a imposição de uma regulação estatal sobre a inteligência artificial não só não é capaz de solucionar tais preocupações, como gerará as externalidades negativas citadas.
Uma possível alternativa passa por dois pontos: uma autorregulação por parte das empresas envolvidas e uma vigilância constante contra as tentativas, por parte do Estado, de suprimir as liberdades individuais.
Os profissionais que desenvolvem IAs tendem a ser conscientes acerca dos riscos que essa tecnologia pode trazer e naturalmente buscam tomar ações para prevenir ou mitigá-los. Da mesma forma, as empresas desenvolvedoras, preocupadas com as expectativas de seus colaboradores, e das demais partes interessadas, têm prontamente ajustado eventuais problemas identificados.
Os exemplos mencionados no presente texto envolvendo o ChatGPT foram corrigidos pela própria Microsoft, de modo muito mais célere do que uma autoridade pública faria. Igualmente, em resposta aos casos trazidos em que inocentes foram presos após o uso inadequado de tecnologia de reconhecimento facial, gigantes de tecnologia, como a Amazon, a IBM e a Microsoft, suspenderam a venda de tais tecnologias para autoridades policiais.
Por fim, especialmente em razão do apreendido por meio do exemplo chinês, não resta dúvida que um regime totalitário, capaz de controlar as empresas desenvolvedoras de tecnologias de inteligência artificial, as utilizará para aumentar sua capacidade de controle sobre as escolhas, o movimento, o pensamento e a liberdade de expressão dos indivíduos. Não se esqueça que ao se defender uma regulação estatal sobre o tema, consequentemente aumenta-se o poder e controle do Estado sobre as IAs.
Assim, para que a inteligência artificial não seja utilizada para fins de vigilância e repressão estatal contra indivíduos que pensem diferente do governo ou que integrem determinada minoria (seja ela étnica ou religiosa), mais do que preocupar-se com o avanço de uma mera ferramenta (IA), a humanidade deve se preocupar com quem será seu usuário (um Estado que restringe ou um Estado que defende as liberdades individuais).