Dia desses, fomos surpreendidos – podemos assim dizer – por uma carta aberta assinada por grandes líderes da indústria tech e pesquisadores de inteligência artificial. Entre eles, Elon Musk, Steve Wozniak, Yuval Noah Harari e Andrew Yang.
O grupo pede, sem rodeios, que o mundo pare, por seis meses, o desenvolvimento e o treinamento de versões de inteligência artificial mais avançadas do que o ChatGPT e seu aprimoramento, o GPT-4. Na avaliação dos signatários da carta, antes de que esse processo tenha continuidade, é preciso implementar regras mais assertivas, de segurança e transparência, a fim de se evitar que tudo saia do controle.
A preocupação, não podemos deixar de concordar, é legítima e faz todo o sentido. Entretanto, por que só agora essa cautela surge assim, tão prioritária? O que soa, para muitos, é que esses empresários perderam a corrida para lançar uma ferramenta baseada em transformação, tão avançada, como o ChatGPT e o GPT-4. E, agora, lançam do argumento da segurança e transparência para tentar alcançar o concorrente nessa corrida.
A se basear por tal justificativa, então devemos parar o Meta em função dos riscos à privacidade do Facebook? Ou, ainda, os carros autônomos da Tesla, do próprio Musk, por conta do risco de segurança?
São questões que se fundem à pergunta que aqui lanço: devemos parar as inovações que não conhecemos?
Na carta, publicada no site futureoflife.org, os líderes do universo tech alegam que a pausa seria para que todos os atores, incluindo os governos, possam discutir e implementar regras, definir modelos de governança. Isso incluiria a criação de órgãos regulatórios, de meios de supervisão de sistemas e de ferramentas que ajudem a distinguir o que é criado por inteligência artificial.
O grupo pede também a responsabilização por danos causados pela inteligência artificial. Ainda, a criação de instituições que possam fazer frente às “dramáticas perturbações econômicas e políticas – especialmente para a democracia – que a IA causará”.
Antes de escrever este artigo, fiz uma postagem sobre o tema, em meu perfil no LinkedIn, pedindo comentários e incluindo também uma enquete, com a seguinte questão: “os investimentos em inteligência artificial devem ser parados por seis meses?”. A resposta “não, deixa rolar” manteve-se vitoriosa, com pouco menos da metade dos votos. Mas foi substancial também o percentual dos que clicaram em “sim, pode ser perigoso”. Em torno de 20%, o que não é pouco, votou em “não sei, tô em dúvida”.
A dúvida, entendo, não está em relutar sobre a pertinência dos argumentos. É possível inferir: não ter posição fechada sobre interromper ou não o desenvolvimento da inteligência artificial antes de normativas regulatórias não significa ignorar os riscos e a importância de evitá-los. Representa, aí sim, o questionamento que lancei há pouco: devemos parar as inovações que não conhecemos?