🚨Devemos parar o desenvolvimento de inteligência artificial?
Seremos dominados por AI? Será ela em breve mais inteligente que nós, humanos?
Nas últimas semanas uma das coisas que não conseguiu passar desapercebido de todos nós foi a discussão enorme sobre inteligência artificial. ChatGPT é um dos grandes responsáveis por isso, o que culminou em uma carta aberta da the future of life assinada por várias pessoas influentes no mundo, como Elon Musk. Nessa carta eles pediram para que iniciativas mais avançadas que o ChatGPT4 sejam adiadas por ao menos 6 meses para que o mundo pense em suas consequências.
Bem, como estou enfurnado em cripto/blockchain nos últimos anos, que é um mundo open source e distribuído, esse pedido me pareceu bem peculiar. O desenvolvimento de AGI (artificial general inteligence), como a maioria se refere, é bem menos open source e muito menos descentralizado do que o de cripto. Sei de poucas iniciativas de AGI, por exemplo, que sejam controladas por DAOs e nenhuma que seja totalmente open source. Dado esse aspecto da indústria de AI, esse pedido de pausa é mais factível. Não que não fosse no caso de estruturas descentralizadas e open source, mas a fiscalização e controle sobre elas seria mais difícil.
Mas porque essa discussão é importante. Fui lá perguntar ao ChatGPT quais os riscos de AGI e ele me voltou com isso:
“AGI (Inteligência Artificial Geral) é uma forma de inteligência artificial que teria a capacidade de entender ou aprender qualquer tarefa intelectual que um ser humano pode realizar. Embora a AGI tenha o potencial de trazer muitos benefícios para a humanidade, também há alguns riscos associados a essa tecnologia. Alguns desses riscos incluem:
1. Autonomia: Se uma AGI se tornasse autônoma e fosse capaz de tomar decisões independentes, ela poderia agir contra os interesses humanos. Por exemplo, ela poderia interpretar mal as metas ou os valores humanos e agir de uma forma que causasse danos.
2. Controle: É importante garantir que a AGI seja projetada para ser controlável e que os seres humanos possam mantê-la sob controle. Se a AGI se tornar muito poderosa ou não for projetada para ser controlável, ela poderia causar danos significativos.
3. Viés: A AGI pode ser programada com viés, o que significa que ela pode ser parcial para certas pessoas ou grupos, o que pode levar a consequências negativas para outros grupos.
4. Falhas: Como qualquer tecnologia, a AGI pode falhar. Se houver falhas de segurança na AGI, ela pode ser hackeada ou manipulada para fazer coisas prejudiciais.
5. Substituição: Se a AGI se tornar muito avançada, ela pode substituir os seres humanos em muitas áreas de trabalho. Isso pode levar ao desemprego em massa e a outros problemas sociais.
6. Armamento: Se a AGI for usada para fins militares, pode ser usada para desenvolver armas autônomas, o que pode levar a conflitos armados sem supervisão humana adequada.
Estes são apenas alguns dos riscos associados à AGI, e é importante que as empresas e governos sejam cuidadosos ao desenvolver e implantar essa tecnologia para minimizar esses riscos.”
Resposta para lá de interessante, não? Por trás dela tem várias questões éticas e de consciência, que até agora que se resumiam aos humanos e suas interações sociais. Não preciso dizer que me aprofundei nessas questões com o Chatgpt e as respostas foram todas muito equilibradas e embasadas.
A questão que sempre fica é que isso tudo aos meus olhos. Como todos, tenho minhas crenças e vieses, que talvez tenham sido as mesmas do grupo que programou o chatGPT? Ou o chatgpt se adequa para responder em consonância com o meu perfil?
Todos esses fatores já foram imensamente tratados em várias séries de ficção cientifica e livros sobre o assunto. Destaco o livro vida 3.0 que descreve de maneira muito boa toda essa discussão além de desenhar possíveis cenários futuros em relação a essa tecnologia. Os capítulos sobre o que são aprendizado e consciência trazem uma discussão essencial para entendermos tudo isso.
Muito da criação dos meus filhos foi feita para que eles questionassem o mundo a volta deles e o que vejo no chatgpt é um mix de felicidade e preocupação com isso. Saber fazer perguntas é uma coisa muito boa e AGI será uma fonte de informação muito melhor do que é a busca do google ou do Youtube hoje. Quem usa muito esses mecanismos de pesquisa claramente consegue ver diferença entre eles. No google se coloco um nome com alguns dígitos errados e procuro uma pessoa famosa ele “conserta” e sugere sites referentes a esse nome novo. Boa sorte para procurar uma pessoa no LinkedIn se tem uma letra do nome dele(a) errado. ChatGPT está léguas além desses algoritmos.
Uma dúvida que fica para essa nova era em que estamos entrando é qual a profundidade de discussão que precisaremos ter. Tempo é talvez o único ativo que todos nós humanos ainda temos como restrição e que iguala todos nos. Até quando for assim, será produtividade o fator de diferenças entre nós? Como conseguiremos avaliar as respostas de uma AGI se não tivermos a profundidade necessária sobre aquele assunto/resposta?
Quando entrei na faculdade ela era uma forma de ter acesso a informações que poucos tinham, seja pelos professores, seja pela biblioteca. Anos após veio a internet e expandiu a informação para todos. Hoje vivemos em um mundo de abundância de informações e que temos dificuldade de filtrar. Seria AGI o filtro que procuramos para facilitar nossa vida? Mas quem será responsável pelos parâmetros desse filtro? Essa é a discussão que temos e devemos continuar a ter.
Tentar parar o desenvolvimento de AGI para mim é inócuo, tal qual em uma briga de casal você querer voltar atrás no que disse no calor de uma discussão. Está falado. Está feito. Agora isso não quer dizer que não possamos ajustar o caminho e assumirmos que erramos aqui ou ali. Essa parece ser a opinião do Sam, CEO da OpenAi e a que apoio. Colocar o Chatgpt para rodar e ser testado pelo mundo é uma forma ótima de trazer essa discussão à tona para todo o mundo, além do que chamamos de feedback loop que ajudará imensamente no treinamento do sistema para frente.
Vindo do mercado financeiro, que é extremamente regulado e tudo fica dentro de “caixinha”, as discussões aqui são de outro nível para mim. Como disse o amigo Magaldi em uma Live que fizemos juntos, o mundo não quis regular as grandes empresas de WEB2 (Microsoft, Amazon, Meta, Apple…) está agora querendo regular as de WEB3 por conta de o dinheiro ser endógeno a ela. AGI está em um ambiente tal qual WEB2, sem regulação, e aqui está um dos grandes pontos de discussão. Não acho prudente deixamos o desenvolvimento de AGI aberto a qualquer possibilidade. Temos que definir parâmetros e linhas que não devem ser cruzadas. Se tivermos uma grande empresa, ou um pequeno grupo de empresas, dominando AGI no mundo o poder delas será imensamente maior do que das gigantes que temos hoje. Mas temos que fazer isso com o avião voando, não tentando pará-lo.
Muitas dúvidas e poucas certezas, e continuo e continuaremos a usar o ChatGPT para nos ajudar na nossa vida. E você? O que acha dessa discussão? Comente abaixo
🎇Colecionável Fintrender 🎇
🔉 NFT exclusivo com arte associada a esse texto
🤲 “mintagem" grátis
🧾Numero finito de nfts emitidos
Corre lá: Gotas.social 🗝️Codigo: AIFEAR
Onde continuamos:
Newsletter: @Fintrender
LinkedIn: @Fintrender
Instagram: @Fintrender
Twitter: @Fintrender
Facebook: @Fintrender
Podcast: Fintechs e novos investimentos
Para ir mais a fundo nesse assunto:
Sam Altman: OpenAI CEO on GPT-4, ChatGPT, and the Future of AI | Lex Fridman Podcast #367 - YouTube
Vida 3.0: O ser humano na era da inteligência artificial | Amazon.com.br
Pause Giant AI Experiments: An Open Letter - Future of Life Institute
AIFEAR - Ficarei atento nas proximas
Subscrevo, Gustavo!