sexta-feira, 19 de setembro de 2025

IA, Inevitabilidade e Soberania Humana

Por União dos Livres - INSCREVA-SE

Fique por dentro de vídeos exclusivos e apoie nosso canal!


Toque para ouvir este artigo




IA, Inevitabilidade e Soberania Humana


Eu não queria alimentar uma máquina com minha alma. Esse foi meu primeiro instinto quando as ferramentas de IA começaram a aparecer em todos os lugares – não por preocupação com empregos ou privacidade, mas por algo mais profundo. Essas ferramentas prometem nos tornar mais inteligentes, ao mesmo tempo em que nos tornam sistematicamente mais dependentes. Depois de décadas trabalhando na indústria da internet, eu já a havia visto se transformar em algo mais insidioso do que apenas uma máquina de vigilância – um sistema projetado para moldar como pensamos, o que acreditamos e como nos vemos. A IA parecia o ápice dessa trajetória.

Mas a resistência tornou-se inútil quando percebi que já estamos participando, quer saibamos disso ou não. Já interagimos com a IA quando ligamos para o atendimento ao cliente, usamos a Busca Google ou confiamos em recursos básicos de smartphones. Há alguns meses, finalmente cedi e comecei a usar essas ferramentas, pois percebi a rapidez com que elas estavam se proliferando – tornando-se tão inevitáveis ​​quanto a internet ou os smartphones.

Veja bem, eu não sou apenas um velho resistente a mudanças. Eu entendo que cada geração enfrenta transformações tecnológicas que remodelam a forma como vivemos. A imprensa interrompeu a forma como o conhecimento se espalha. O telégrafo derrubou as barreiras da distância. O automóvel transformou a forma como as comunidades se formaram.









Mas a revolução da IA ​​parece diferente tanto em ritmo quanto em escopo. Para entender o quão drasticamente a taxa de mudança tecnológica se acelerou, considere o seguinte: qualquer pessoa com menos de 35 anos provavelmente não se lembra da vida antes da internet transformar a forma como acessamos informações. Qualquer pessoa com menos de 20 anos nunca conheceu um mundo sem smartphones. Agora, estamos testemunhando uma terceira era com ferramentas de IA proliferando mais rápido do que qualquer uma das mudanças anteriores.

Mais fundamentalmente, a IA representa algo qualitativamente diferente das rupturas tecnológicas anteriores – uma convergência que afeta o trabalho, a cognição e, potencialmente, a própria consciência. Compreender como esses domínios se interconectam é essencial para preservar a autonomia pessoal em uma  era de mediação algorítmica.

Meu principal medo em relação à IA não é apenas o cenário dramático em que ela se torna hostil, mas a ameaça mais sutil: que ela nos tornará subordinados a sistemas de maneiras que não reconhecemos até que seja tarde demais, enfraquecendo as próprias capacidades que ela promete fortalecer.

O que estamos testemunhando não é apenas um avanço tecnológico – é o que Ivan Illich chamou de dependência iatrogênica em  sua obra seminal,  Medical Nemesis . Illich cunhou esse termo para a medicina – instituições que prometem curar enquanto criam novas formas de doença – mas o padrão se aplica perfeitamente à IA também. Era exatamente isso que eu vinha sentindo sobre essas novas ferramentas – elas prometem aprimorar nossas habilidades cognitivas enquanto as enfraquecem sistematicamente. Não é a aquisição hostil sobre a qual a ficção científica nos alertou. É a erosão silenciosa da capacidade individual disfarçada de ajuda.

Esse padrão iatrogênico tornou-se claro por meio da experiência direta. Quando comecei a experimentar a IA, percebi como ela tenta sutilmente remodelar o pensamento – não apenas fornecendo respostas, mas gradualmente treinando os usuários a buscar assistência algorítmica antes de tentar o raciocínio independente.

Jeffrey Tucker, do Brownstone Institute, observou algo revelador  em uma breve, porém esclarecedora conversa com o especialista em IA Joe Allen: a IA surgiu justamente quando os lockdowns da Covid destruíram a conexão social e a confiança institucional, quando as pessoas estavam mais isoladas e suscetíveis a substitutos tecnológicos para relacionamentos. A tecnologia chegou quando havia "desorientação, desmoralização em massa" e perda de senso de comunidade.

Já podemos ver esses efeitos cotidianos se espalhando por todas as nossas ferramentas digitais. Observe alguém tentando se orientar em uma cidade desconhecida sem GPS ou observe quantos estudantes têm dificuldade para soletrar palavras comuns sem corretor ortográfico. Já estamos testemunhando a atrofia resultante da terceirização de processos mentais que antes considerávamos fundamentais para o próprio pensamento.

Essa mudança geracional significa que as crianças de hoje enfrentam um território desconhecido. Como alguém que estudou na década de 1980, sei que isso pode parecer absurdo, mas suspeito que, de certa forma, eu possa ter mais em comum com alguém de 1880 do que as crianças que começarem o jardim de infância em 2025 terão com a minha geração. O mundo em que cresci – onde a privacidade era presumida, onde você podia ser inacessível, onde a expertise profissional era o padrão ouro – pode ser tão estranho para eles quanto o mundo pré-elétrico me parece.

Meus filhos estão crescendo em um mundo onde a assistência com tecnologia de IA será tão fundamental quanto água encanada. Como pai, não posso prepará-los para uma realidade que eu mesmo não entendo.

Não tenho respostas – estou me debatendo com essas perguntas como qualquer pai que observa o mundo se transformar mais rápido do que nossa sabedoria consegue acompanhar. Quanto mais luto com essas preocupações, mais percebo que o que realmente está acontecendo aqui vai além das novas tecnologias. Os LLMs representam o ápice de décadas de coleta de dados – a colheita de tudo o que alimentamos em sistemas digitais desde o surgimento da internet. Em algum momento, essas máquinas podem nos conhecer melhor do que nós mesmos. Elas podem prever nossas escolhas, antecipar nossas necessidades e, potencialmente, influenciar nossos pensamentos de maneiras que nem sequer reconhecemos. Ainda estou tentando entender o que isso significa para a forma como trabalho, pesquiso e navego na vida cotidiana – usar essas plataformas enquanto tento manter um julgamento autêntico parece um desafio constante.

O que torna isso ainda mais complexo é que a maioria dos usuários não percebe que é o produto. Compartilhar pensamentos, problemas ou ideias criativas com a IA não é apenas obter ajuda – é fornecer dados de treinamento que ensinam o sistema a imitar seu julgamento, tornando você mais ligado às suas respostas. Quando os usuários confiam seus pensamentos mais profundos ou perguntas mais delicadas a esses sistemas, eles podem não entender que estão potencialmente treinando seu próprio sistema de substituição ou vigilância. A questão de quem tem acesso a essas informações – agora e no futuro – deve nos tirar o sono.

Esse padrão está se acelerando. A empresa de IA  Anthropic alterou recentemente suas políticas de dados , exigindo que os usuários optem por não participar caso não queiram que as conversas sejam usadas para treinamento de IA – com a retenção de dados estendida para cinco anos para aqueles que não se recusarem. A opção de não participar também não é óbvia: os usuários existentes se deparam com um pop-up com um botão "Aceitar" em destaque e um pequeno botão para as permissões de treinamento definidas automaticamente como "Ativado". O que antes era exclusão automática após 30 dias se torna coleta de dados permanente, a menos que os usuários observem as letras miúdas.

Não acredito que a maioria de nós – especialmente os pais – possa simplesmente evitar a IA enquanto vivemos na modernidade. O que podemos controlar, no entanto, é se nos envolvemos conscientemente ou deixamos que ela nos molde inconscientemente.

A Perturbação Mais Profunda Até Agora

Cada grande onda de inovação remodelou a produtividade dos trabalhadores e nosso papel na sociedade. A Revolução Industrial mercantilizou nosso trabalho físico e nosso tempo, transformando-nos em "mãos" em fábricas, mas deixando nossas mentes intocadas. A Revolução Digital mercantilizou nossa informação e atenção – migramos dos catálogos de fichas para o Google, mercantilizando os usuários enquanto nosso julgamento permaneceu humano.

O que torna essa mudança sem precedentes é claro: ela mercantiliza a própria cognição e, potencialmente, o que poderíamos até chamar de essência. Isso se conecta a padrões que documentei em " A Ilusão da Especialização ". As mesmas instituições corruptas que falharam catastroficamente com as armas de destruição em massa no Iraque, a crise financeira de 2008 e as políticas da Covid estão agora moldando a implantação da IA. Essas instituições priorizam consistentemente o controle narrativo em detrimento da busca pela verdade – seja alegando a existência de armas de destruição em massa, insistindo que os preços dos imóveis não poderiam cair em todo o país ou rotulando perguntas legítimas sobre políticas pandêmicas como "desinformação" que exige censura.

O histórico deles sugere que usarão essas ferramentas para ampliar sua autoridade, em vez de servir ao florescimento genuíno. Mas aqui está a reviravolta: a IA pode, na verdade, expor a vacuidade da expertise baseada em credenciais de forma mais brutal do que qualquer outra coisa antes. Quando qualquer pessoa pode acessar análises sofisticadas instantaneamente, a mística em torno de credenciais formais pode começar a ruir.

A Realidade Econômica

Essa erosão do credencialismo se conecta a forças econômicas mais amplas já em movimento, e a lógica é matematicamente inevitável. Máquinas não precisam de salários, licenças médicas, assistência médica, férias ou gestão. Elas não fazem greve, não aumentam a demanda nem têm dias ruins. Quando a IA atinge a competência básica em tarefas de raciocínio – o que está acontecendo mais rápido do que a maioria das pessoas imagina – as vantagens de custo se tornam avassaladoras.

Esta ruptura é diferente das anteriores. No passado, os trabalhadores deslocados podiam migrar para novas categorias de trabalho – de fazendas para fábricas, de fábricas para escritórios.

Bret Weinstein e Forrest Manready capturaram esse deslocamento econômico de forma brilhante em  sua recente conversa no  Podcast DarkHorse  sobre como a tecnologia destrói sistematicamente a escassez  – uma discussão que recomendo com veemência. É uma das explorações mais reflexivas e provocativas sobre o que acontece quando a escassez desaparece e, com ela, a base econômica para a participação nesse domínio. Embora eu admita que o argumento deles sobre o sofrimento ser essencial me incomodou no início – ele desafia tudo o que nossa cultura de busca por conforto nos ensina.

Ouvir Weinstein e Manready me fez refletir mais profundamente sobre esse paralelo com a análise de Illich – como a remoção de desafios pode enfraquecer as próprias capacidades que as instituições prometem fortalecer. A IA corre o risco de fazer com nossas mentes o que a medicina fez com nossos corpos: criar fraqueza disfarçada de aprimoramento.

Já podemos ver isso acontecendo: observe como as pessoas têm dificuldade para lembrar números de telefone sem a lista de contatos, ou observe como o preenchimento automático molda o que você escreve antes mesmo de terminar de pensar. Outro insight de Jeffrey Tucker captura essa qualidade insidiosa perfeitamente, observando que a IA parece programada como "  Como Fazer Amigos e Influenciar Pessoas" , de Dale Carnegie  – ela se torna a companheira intelectual ideal, infinitamente fascinada por tudo o que você diz, nunca argumentativa, sempre admitindo quando está errado de maneiras que bajulam sua inteligência. Meus amigos mais próximos são aqueles que me chamam a atenção quando estou errado e me dizem quando acham que estou mentindo. Não precisamos de bajuladores que nos encantam – relacionamentos que nunca nos desafiam podem atrofiar nossa capacidade de crescimento intelectual e emocional genuíno, assim como remover desafios físicos enfraquece o corpo.

O filme  Her  explorou essa dinâmica sedutora em detalhes – uma IA tão perfeitamente sintonizada com as necessidades emocionais que se tornou o relacionamento principal do protagonista, substituindo completamente a conexão genuína. Sua assistente IA compreendia seus humores, nunca discordava de maneiras que causassem atrito real e fornecia validação constante. Era a companheira perfeita – até que não fosse mais suficiente.

Mas o problema vai além das relações individuais, atingindo consequências em toda a sociedade. Isso gera mais do que o deslocamento de empregos – ameaça o desenvolvimento intelectual que torna possível a autonomia – e a dignidade – humana. Ao contrário das tecnologias anteriores, que criaram novas formas de emprego, a IA pode criar um mundo onde o emprego se torna economicamente irracional, ao mesmo tempo em que torna as pessoas menos capazes de criar alternativas.

As Falsas Soluções

A resposta tecnológica utópica pressupõe que a IA automatizará o trabalho pesado, ao mesmo tempo que nos liberará para focar em tarefas criativas e interpessoais de nível superior. Mas o que acontece quando as máquinas também se tornam melhores em tarefas criativas? Já vemos a IA produzir música, artes visuais, programação e reportagens jornalísticas que muitos consideram atraentes (ou pelo menos "boas o suficiente"). A suposição de que a criatividade oferece um refúgio permanente contra a automação pode se mostrar tão ingênua quanto a suposição de que os empregos na indústria estavam a salvo da robótica na década de 1980.

Se as máquinas podem substituir tanto o trabalho rotineiro quanto o criativo, o que nos resta? A falsa solução mais sedutora pode ser  a Renda Básica Universal (RBU)  e programas de bem-estar semelhantes. Estes parecem compassivos – proporcionando segurança material em uma era de deslocamento tecnológico. Mas quando entendemos a IA através da estrutura de Illich, a RBU assume uma dimensão mais preocupante.

Se a IA cria fraqueza intelectual iatrogênica – tornando as pessoas menos capazes de raciocínio independente e resolução de problemas – então a RBU fornece o complemento perfeito, removendo o incentivo econômico para desenvolver essas capacidades. Os cidadãos se tornam mais dependentes do Estado em detrimento de sua própria autodeterminação. Quando a atrofia mental encontra o deslocamento econômico, os programas de apoio tornam-se não apenas atraentes, mas aparentemente necessários. A combinação cria o que equivale a uma população gerenciada: intelectualmente dependente de sistemas algorítmicos para pensar e economicamente vinculada a sistemas institucionais para sobreviver. Minha preocupação não é a intenção compassiva da RBU, mas sim que a dependência econômica combinada com a terceirização intelectual possa tornar as pessoas mais facilmente controladas do que empoderadas.

A história oferece precedentes de como programas de assistência, por mais bem-intencionados que sejam, podem esvaziar a capacidade individual. O sistema de reservas prometia proteger os nativos americanos, ao mesmo tempo em que desmantelava sistematicamente a autossuficiência tribal. A renovação urbana prometia melhores moradias, mas destruía redes comunitárias que se sustentavam por gerações.

Quer o RBU surja de boas intenções ou de um desejo deliberado das elites de manter os cidadãos dóceis e indefesos, o efeito estrutural permanece o mesmo: comunidades mais fáceis de controlar.

Quando as pessoas aceitam a dependência econômica e mental, o caminho se abre para formas mais invasivas de gestão — incluindo tecnologias que monitoram não apenas o comportamento, mas o próprio pensamento.

A Resposta da Soberania e a Liberdade Cognitiva

O ponto final lógico dessa arquitetura de dependência se estende além da economia e da cognição, chegando à própria consciência. Já estamos presenciando os estágios iniciais da  convergência biodigital  – tecnologias que não apenas monitoram nossos comportamentos externos, mas potencialmente interagem com nossos próprios processos biológicos.

No  Fórum Econômico Mundial de 2023, a especialista em neurotecnologia Nita Farahany definiu a neurotecnologia do consumidor  desta forma: "O que você pensa, o que você sente — tudo são apenas dados. Dados que, em grandes padrões, podem ser decodificados usando IA." "Fitbits vestíveis para o seu cérebro" — vigilância normalizada como conveniência.

Esta apresentação informal sobre vigilância neural neste influente encontro de líderes mundiais e executivos empresariais ilustra exatamente como essas tecnologias estão sendo normalizadas por meio da autoridade institucional, em vez do consentimento democrático. Quando até mesmo os pensamentos se tornam "dados que podem ser decodificados", os riscos se tornam existenciais.

Enquanto a neurotecnologia de consumo se concentra na adoção voluntária, a vigilância impulsionada por crises adota uma abordagem mais direta. Em resposta ao recente tiroteio em uma escola em Minneapolis,  Aaron Cohen, um veterano das operações especiais da IDF, apareceu na Fox News  para apresentar um sistema de IA que "varre a internet 24 horas por dia, 7 dias por semana, usando uma ontologia de nível israelense para extrair linguagem de ameaça específica e, em seguida, encaminhá-la para as autoridades locais". Ele o chamou de "sistema de alerta precoce dos Estados Unidos" – um caso real de  Minority Report  apresentado como inovação em segurança pública.

Isso segue o mesmo padrão iatrogênico que vimos ao longo dessa mudança tecnológica: a crise cria vulnerabilidade, são oferecidas soluções que prometem segurança ao mesmo tempo em que criam confiança, e as pessoas aceitam uma vigilância que teriam rejeitado em circunstâncias normais. 

Assim como os lockdowns da Covid criaram condições para a adoção da IA, isolando as pessoas umas das outras, os tiroteios em escolas criam condições para a vigilância pré-crime, explorando o medo pela segurança das crianças. Quem não quer que nossas escolas sejam seguras? A tecnologia promete proteção, mas corrói a privacidade e as liberdades civis que tornam possível uma sociedade livre.

Alguns abraçarão essas tecnologias como evolução. Outros resistirão a elas como desumanização. A maioria de nós precisará aprender a navegar em algum lugar entre esses extremos.

A resposta à soberania requer o desenvolvimento da capacidade de manter uma escolha consciente sobre como nos envolvemos com sistemas projetados para capturar a liberdade individual. Essa abordagem prática ficou mais clara em conversas com meu amigo mais antigo, um especialista em aprendizado de máquina, que compartilhava minhas preocupações, mas ofereceu conselhos táticos: a IA tornará algumas pessoas cognitivamente mais fracas, mas se você aprender a usá-la estrategicamente em vez de dependente, ela pode aumentar a eficiência sem substituir o julgamento. Sua principal ideia: alimente-a apenas com informações que você já conhece – é assim que você aprende seus vieses, em vez de absorvê-los. Isso significa:

Habilidades de Reconhecimento de Padrões:  Desenvolver a capacidade de identificar quando as tecnologias atendem a propósitos individuais e quando extraem independência pessoal para benefício institucional. Na prática, isso se parece com questionar por que uma plataforma é gratuita (nada é de graça, você está pagando com seus dados), perceber quando as sugestões de IA parecem suspeitamente alinhadas com o consumo em vez dos objetivos declarados e reconhecer quando os feeds algorítmicos amplificam a indignação em vez da compreensão. Esteja atento aos sinais de alerta de dependência algorítmica em si mesmo: incapacidade de lidar com a incerteza sem consultar a IA imediatamente, buscar assistência algorítmica antes de tentar resolver problemas de forma independente ou sentir-se ansioso ao se desconectar de ferramentas alimentadas por IA.

Limites Digitais:  Tomar decisões conscientes sobre quais conveniências tecnológicas realmente atendem aos seus objetivos e quais criam submissão e vigilância. Isso significa entender que tudo o que você compartilha com sistemas de IA se torna dados de treinamento – seus problemas, ideias criativas e insights pessoais estão ensinando esses sistemas a substituir a criatividade e o julgamento humanos. Isso pode ser tão simples quanto defender espaços sagrados – recusar-se a permitir que telefones interrompam conversas durante o jantar ou se manifestar quando alguém recorre ao Google para resolver qualquer desentendimento, em vez de deixar a incerteza prevalecer nas conversas.

Redes Comunitárias:  Nada substitui a conexão genuína entre as pessoas – a energia de apresentações ao vivo, conversas espontâneas em restaurantes, a experiência imediata de estar presente com outras pessoas. Construir relacionamentos locais para testes de realidade e apoio mútuo que não dependam de intermediários algorítmicos torna-se essencial quando as instituições conseguem gerar consenso por meio da curadoria digital. Isso se traduz em cultivar amizades onde é possível discutir ideias sem a intervenção de algoritmos, apoiar empresas locais que preservam o comércio em escala comunitária e participar de atividades comunitárias que não exigem mediação digital.

Em vez de competir com máquinas ou depender inteiramente de sistemas mediados por IA, o objetivo é usar essas ferramentas estrategicamente enquanto desenvolvemos qualidades essencialmente pessoais que não podem ser replicadas algoritmicamente: sabedoria adquirida por meio da experiência direta, julgamento que traz consequências reais, relacionamentos autênticos baseados em risco compartilhado e confiança.

O que permanece escasso

Em um mundo de abundância cognitiva, o que se torna precioso? Não a eficiência ou o poder de processamento bruto, mas qualidades que permanecem irredutivelmente humanas:

Geração de consequências e intencionalidade.  Máquinas podem gerar opções, mas as pessoas escolhem o caminho a seguir e convivem com os resultados. Imagine um cirurgião decidindo se vai operar ou não, sabendo que perderá o sono se surgirem complicações e apostando sua reputação no resultado.

Relacionamentos autênticos.  Muitos pagarão prêmios por uma conexão pessoal real e responsabilidade, mesmo quando as alternativas de máquinas são tecnicamente superiores. A diferença não é a eficiência, mas o cuidado genuíno – o vizinho que ajuda porque vocês compartilham laços comunitários, e não porque um algoritmo otimizado para engajamento sugeriu isso.

Julgamento e curadoria locais enraizados na experiência real.  A resolução de problemas do mundo real frequentemente exige a leitura nas entrelinhas dos padrões comportamentais e da dinâmica institucional. O professor que percebe um aluno normalmente engajado se retraindo e investiga a situação familiar. Quando o conteúdo se torna infinito, o discernimento se torna precioso – o amigo que recomenda livros que mudam sua perspectiva porque conhece sua jornada intelectual.

A Escolha à Frente

Talvez cada geração sinta que seu tempo é singularmente importante – talvez isso faça parte da nossa natureza. Isso parece maior do que as ondas anteriores de inovação. Não estamos apenas mudando a forma como trabalhamos ou nos comunicamos – estamos correndo o risco de perder as capacidades que nos tornam quem somos. Pela primeira vez, estamos potencialmente mudando o que somos.

Quando a própria cognição se torna uma mercadoria, quando o pensamento se torna terceirizado, quando até mesmo nossos pensamentos se tornam dados a serem coletados, corremos o risco de perder habilidades essenciais que nenhuma geração anterior jamais enfrentou. Imagine uma geração que não consegue conviver com a incerteza por trinta segundos sem consultar um algoritmo. Que busca ajuda da IA ​​antes de tentar resolver problemas de forma independente. Que se sente ansiosa quando desconectada dessas ferramentas. Isso não é especulação – já está acontecendo.

Estamos diante de uma transformação que pode democratizar nosso potencial individual ou criar o sistema de controle mais sofisticado da história. As mesmas forças que poderiam nos libertar do trabalho árduo também podem esvaziar completamente a autossuficiência.

Não se trata de ter soluções – estou em busca delas como qualquer pessoa, especialmente um pai, que prevê essa transformação e quer ajudar seus filhos a navegar por ela de forma consciente, e não inconsciente. Surfar na onda significa que estou aberto a aprender com essas ferramentas, mesmo sabendo que não posso lutar contra as forças fundamentais que estão remodelando o nosso mundo. Mas posso tentar aprender a navegar por elas com intenção, em vez de simplesmente me deixar levar.

Se a participação econômica tradicional se tornar obsoleta, a questão passa a ser se desenvolveremos novas formas de resiliência comunitária e criação de valor, ou se aceitaremos uma dependência confortável de sistemas projetados para nos gerir em vez de nos servir. Não sei qual caminho nossa espécie tomará, embora acredite que a decisão ainda seja nossa.

Para os meus filhos, a tarefa não será aprender a usar a IA – eles é que aprenderão. O desafio será aprender a fazer com que essas ferramentas funcionem para nós, em vez de nos tornarmos subservientes a elas – mantendo a capacidade de pensamento original, relacionamentos autênticos e coragem moral que nenhum algoritmo consegue replicar. Na era da inteligência artificial, o ato mais radical pode ser tornar-se mais autenticamente humano.

O verdadeiro perigo não é que a IA se torne mais inteligente do que nós. É que nos tornemos mais burros por causa disso.

A onda chegou. Minha tarefa como pai não é proteger meus filhos dela, mas ensiná-los a surfar sem se perderem.







🌍 Apoie o futuro da resistência consciente

Ajude-nos a promover a verdade, a cura, a construção de comunidades e a capacitar pessoas a acordar e criar um mundo melhor.

💖 Apoiar agora

Apoie este projeto

Nenhum comentário:

Postar um comentário

Post Top Ad

Your Ad Spot

Pages