Na era das tecnologias emergentes, especialmente no campo da inteligência artificial, é um erro interpretar as falhas e inconsistências exibidas em demonstrações tecnológicas simplesmente como uma documentação do estado atual da técnica, uma lista de problemas a serem resolvidos ou componentes informativos de relatórios técnicos. Pelo contrário, essas falhas, erros e falhas ativamente contribuem para a promessa capitalista das tecnologias de IA. Elas provocam julgamentos e reações emocionais, surpreendem, divertem, desestabilizam ou decepcionam, incitam engajamento e evocam tanto o medo quanto a esperança. Ao fazer isso, não enfraquecem, mas, na verdade, reforçam a percepção da IA como uma “tecnologia promissora”, sustentando, em última instância, sua legitimidade econômica.
Contrariamente à visão comum de falhas e erros como algo a ser evitado ou eliminado, as falhas tecnológicas são, na verdade, essenciais para impulsionar os ciclos capitalistas de produção. Designadas como falhas por meio do julgamento, elas geram a promessa de futuro—de melhoria, otimização, o próximo modelo, a atualização inevitável, e assim por diante. Dentro de um framework capitalista, as quebras de funcionamento permitem que a tecnologia conduza continuamente a novidade, sustente promessas e legitime o desenvolvimento contínuo. O capitalismo contemporâneo não só se beneficia das falhas tecnológicas, mas também as produz ativamente—uma das manifestações mais evidentes disso é a obsolescência planejada. As falhas "sustentam a cultura de atualizações e substituições", alimentando ciclos intermináveis de consumo. Sem a noção de mau funcionamento, falha ou insuficiência, não haveria nenhum imperativo para o aprimoramento, nem a oportunidade de capitalizar sobre ele. No setor de IA, “melhoria” pode significar adotar um novo modelo aprimorado (como o Gen 1, Gen 2, Gen 3 Alpha da Runway) ou assinar uma versão premium que promete correções de erros e recursos exclusivos (como o ChatGPT Plus ou o ChatGPT Pro com acesso ao Sora). As apresentações nas mídias sociais de empresas como Runway AI, OpenAI e Luma AI estão repletas de demonstrações tecnológicas que introduzem e promovem gerações superiores de modelos ou novos recursos projetados para “resolver” limitações anteriores.
Uma breve olhada nas atualizações recentes nas demonstrações tecnológicas de geração de vídeos ilustra esse padrão, com os lançamentos de novos recursos como Ray2, que promete um novo nível de realismo (Luma AI 2025a), upscaling para 4K (Luma AI 2025b), integração de áudio (Luma AI 2025c), ou a introdução de novas funcionalidades como o Act One para vídeos de referência de personagens (Runway 2024a), expand video (Runway 2024b) e Remix para substituição ou remoção de segmentos de vídeo (OpenAI 2024c). Essas atualizações alegam resolver inconsistências, melhorar a resolução, ampliar as possibilidades estéticas e estilísticas, e levar o realismo a um novo patamar—finalmente tornando obsoletas as funcionalidades anteriores. Esses ciclos de atualizações e upgrades constroem retrospectivamente problemas a serem resolvidos e crises a serem administradas. As falhas, portanto, estão profundamente entrelaçadas com a lógica capitalista de serialização tecnológica—manifestando-se como gerações, upgrades e atualizações. Elas tanto permitem quanto materializam a promessa de futuridade. À medida que ganham valor, as falhas se tornam mercadorias, constituindo uma “máquina de promessas quebradas”.
O exemplo da Luma Dream Machine, apresentado em 3 de setembro de 2024, encapsula perfeitamente a lógica da futuridade atualizada, recorrendo à história do cinema. Lançado em formato vertical, o vídeo introduz e apresenta as possibilidades de movimento de câmera acionado por comandos. Começa comparando uma câmera de filme analógica em um tripé com a interface para digitar um comando de movimento de câmera. Estilizado como um filme mudo em preto e branco, o demo utiliza intertítulos e legendas para destacar a narração em voz masculina, acompanhada de uma trilha sonora animada e cômica ao estilo swing dos anos 1920. Usando os intertítulos e a música como parênteses estéticos, o vídeo avança rapidamente pela história do cinema: começando com o cinema mudo e evocando obras vanguardistas como Man with a Movie Camera (1929), passando para o humor caricatural e espetáculos de efeitos especiais, como o Rei Kong diante de uma roda-gigante. A sequência culmina com a transição para um futuro "colorido", ilustrado por referências a filmes como RoboCop (1987) e outros ícones culturais. Ao retratar essa progressão do passado preto e branco para o futuro colorido, o vídeo não só traça a história do cinema, mas também demonstra a ampliação das possibilidades de movimento de câmera proporcionadas pela Luma.
Ao reimaginar o legado do cinema dentro da estética futurista da animação sintética, a Luma Dream Machine sugere que a própria história do cinema—apesar de seus avanços artísticos—não cumpriu sua promessa, algo que agora a IA pode realizar. Esse futuro de entretenimento é simbolizado pela música swing otimista, que reforça uma visão positiva sobre as inovações da IA e seu impacto no futuro do cinema e dos meios audiovisuais.
Dentro de uma economia afetiva das promessas, as falhas tecnológicas não são simplesmente defeitos a serem corrigidos, mas catalisadores emocionais que impulsionam o engajamento do público e criam uma dinâmica de expectativas constantemente adiadas. As falhas tecnológicas nas demonstrações de IA evocam uma gama de emoções ambivalentes: esperança misturada com a ansiedade e o tédio da espera, confiança sombreada pela desconfiança. Esperança, no entanto, pode ser adiada indefinidamente. Quando as tecnologias falham em cumprir suas promessas, elas podem simplesmente transferir essas promessas para a próxima versão, para o próximo conserto, para a próxima atualização.
É importante perceber que essas falhas não só alimentam os ciclos de consumo, mas também moldam as percepções culturais e emocionais sobre o que a IA pode e deve ser. Elas não são apenas obstáculos técnicos, mas elementos centrais na construção da narrativa de progresso e inovação que permeia o mercado de IA. O erro, o defeito e a promessa não cumprida tornam-se assim não apenas uma questão de aprimoramento tecnológico, mas parte da própria lógica do capitalismo contemporâneo, que se alimenta dessas promessas para garantir seu crescimento contínuo.
A Antropomorfização da IA e suas Implicações Sociais
Com o crescente uso de plataformas de modelos de linguagem como o ChatGPT, os membros do público geral parecem cada vez mais dispostos a atribuir consciência a essas ferramentas e a aplicar conceitos de psicologia popular nas interações com elas. Como alertou Simone Natale, "as tendências de projetar agência e humanidade em objetos fazem com que a IA tenha um potencial disruptivo para as relações sociais e a vida cotidiana nas sociedades contemporâneas". Essa tendência é alimentada, em parte, por figuras da indústria tecnológica que expressam entusiasmo por um "avanço iminente" em direção à inteligência geral artificial ou até à "superinteligência", mas também alertam para os perigos de uma "singularidade da IA", uma distopia na qual as máquinas poderiam adquirir um poder excessivo e descontrolado.
Embora alguns estudos na área da ciência da computação afirmem que o GPT-4 já demonstraria sinais de inteligência geral artificial, a maioria dos especialistas permanece cética quanto a essas alegações. Os resultados produzidos por essas plataformas de aprendizado de máquina são, em sua essência, estocásticos, ou seja, baseados em probabilidades e não em raciocínio real. Portanto, a questão sobre se esses sistemas têm ou não "consciência" precisa ser vista com cautela, pois muitas vezes é mais uma distração de questões políticas e sociais mais urgentes, como alertou Matthew Kirschenbaum. Ele sugere que, em vez de nos preocuparmos com máquinas assassinas ou com a singularidade da IA, devemos focar na maneira como essas tecnologias são usadas para consolidar o poder nas mãos de poucos, despojando as sociedades de conhecimento e memória.
O que chama a atenção é a disposição do público em atribuir características humanas a essas máquinas, um fenômeno amplamente observado na interação com tecnologias como o ChatGPT. Esse comportamento não é novo e remonta a questões filosóficas e tecnológicas que acompanham o desenvolvimento da inteligência artificial. Historicamente, o chamado "Teste de Turing" elevou uma simples imitação da interação humana à categoria de medida de inteligência, desviando a atenção das questões cognitivas reais e focando exclusivamente no comportamento comunicativo. A ideia de que uma máquina que simula conversas de forma convincente pode ser considerada "inteligente" ou "consciente" tem sido amplamente debatida e criticada.
A percepção de que as máquinas podem ter intenções ou crenças, mesmo quando suas respostas são geradas apenas por previsões estocásticas, é uma ilusão que muitas vezes é alimentada pelas próprias características estéticas e de interface dessas tecnologias. Quando o ChatGPT, por exemplo, gera textos que se assemelham a produções humanas, o leitor tende a ser enganado pela "magia" da interface, acreditando que está se comunicando com um ser dotado de intenção e compreensão. Como Alexandre Galloway destacou, a IA depende inteiramente da percepção humana para ser "crível" ou "sentiente". Essa crença é amplificada pelo grau de interatividade que essas tecnologias oferecem, criando uma ilusão de agência onde, na verdade, não há nenhuma.
A teoria da antropomorfização das tecnologias é, portanto, essencial para entender como interagimos com as IA de forma emocional e cognitiva. Para isso, dois mecanismos de engajamento com a mídia devem ser distinguidos, embora estejam cada vez mais entrelaçados: o "efeito Eliza" e o "efeito de personagem". O primeiro, observado pela primeira vez com o chatbot Eliza, criado por Joseph Weizenbaum em 1966, descreve a tendência das pessoas de atribuir significados emocionais profundos a respostas computacionais simples. Mesmo quando os usuários sabiam que estavam interagindo com um programa e não com um ser humano, muitos se sentiam emocionalmente conectados com o chatbot, principalmente devido à estrutura das respostas, que se baseavam em perguntas de seguimento, como "Conte-me mais sobre isso". Esse tipo de interação gerava uma falsa sensação de empatia e entendimento, um fenômeno que Weizenbaum não antecipou completamente, mas que ele documentou como sendo poderoso o suficiente para induzir "pensamento delirante" em pessoas normalmente racionais.
Esse efeito é ampliado por tecnologias mais avançadas como o ChatGPT, que, embora mais complexas, continuam a explorar os mesmos princípios de imitação e engano. O "efeito de personagem", por sua vez, refere-se à tendência de ver a IA não apenas como uma ferramenta, mas como um "personagem" que age e pensa como um ser humano, com características próprias. Ambos os efeitos são fundamentais para entender como as pessoas podem começar a atribuir intenções, desejos e até emoções a entidades não-humanas. A IA, em seu estágio atual, opera de acordo com lógicas de "paródia" ou imitação, mas essa imitação tem um impacto profundo na percepção pública da tecnologia.
Além disso, é importante considerar que essas questões não se limitam ao campo filosófico ou técnico, mas têm implicações sociais e políticas profundas. À medida que a IA continua a avançar, sua capacidade de moldar e influenciar a opinião pública se torna cada vez mais pronunciada. O impacto da IA nas interações sociais, na forma como entendemos a autoria e a criatividade, e no próprio conceito de "agência" humana precisa ser levado em conta. A antropomorfização não é apenas uma questão de como as pessoas percebem as máquinas, mas também de como as máquinas, em suas interações e representações, podem moldar e redefinir a maneira como nos relacionamos com o mundo ao nosso redor.
Como a Engenharia de Membranas Celulares Pode Revolucionar o Tratamento de Doenças Neurodegenerativas
Como o YOLOv2 Revoluciona a Detecção de Objetos em Tempo Real e Sua Aplicação no Monitoramento de Distanciamento Social
Como a Reabilitação Cardíaca e o Treinamento Físico Influenciam Pacientes com Insuficiência Cardíaca Avançada e Dispositivos de Assistência Ventricular Esquerda (LVAD)

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский