Hugo Gernsback: Life/1963
Esboço para uma análise crítica a partir de uma tentativa sincera de não soar alarmista
Em artigo de fevereiro deste ano, o editor da seção digital da Columbia Journalism Review, Mathew Ingram, pergunta – sem fugir do tom alarmista com que a cobertura jornalística sobre os impactos da automação na mídia tem sido conduzida – se a inteligência artificial será uma aliada ou um desastre para o jornalismo.
O catastrofismo, mais do que uma mera questão corporativista, é algo justificável. Já em 2020, um relatório divulgado pelo Fórum Econômico Mundial estimou que, até 2025, 85 milhões de postos de trabalho seriam substituídos diante do avanço de processos automatizados nas empresas.
E, embora o estudo indique que outras 97 milhões de vagas seriam criadas (ou seja, há, ao menos em tese, um saldo no balanço da "disrupção"), ele também aponta para a necessidade de apoio governamental e das empresas para os ecossistemas de trabalho com maior potencial de sofrer dos efeitos negativos da corrida tecnológica. Onde está esse apoio? Que caminhos podem ser tomados para além do cada um por si nas selvas digitais do capitalismo tardio?
O artigo de Mathew Ingram não aponta muitas soluções e termina com uma conclusão um tanto óbvia de que ainda é cedo para mensurar se os impactos da inteligência artificial no jornalismo serão bons ou ruins; mas, em contrapartida, o texto reúne algumas reflexões interessantes. O colunista Jack Shafer do site Politico, por exemplo, argumenta enfaticamente que o objetivo do jornalismo não é fornecer um contracheque para repórteres e editores, mas "servir aos leitores" e, se ferramentas de inteligência artificial auxiliam nesse sentido, elas devem ser bem-vindas.
Já o professor da George Washington University, Dave Karpf, diz que a "histeria" acerca do ChatGPT é semelhante às ondas de marketing de conteúdo nos idos de 2010 quando empresas pagavam jornalistas e escritores para gerar conteúdo meramente baseados nas principais pesquisas do Google – fenômeno que, curiosamente, arrefeceu graças ao próprio Google, que fez mudanças em seu algoritmo para rebaixar conteúdos de qualidade ruim. Como reflete Karpf, "confiar em monopolistas de plataforma para proteger o interesse público não é uma ótima maneira de administrar uma civilização, mas é melhor do que nada.”
Caminhos de ruptura?
Apresentadas as reflexões, é hora de mostrar algumas discordâncias. A primeira delas é, justamente, em relação ao tom ligeiro demais com que jornalistas têm encarado o debate em torno da inteligência artificial.
Parece haver um sincero desconhecimento de princípios básicos da evolução das tecnologias de automação que não estão tão inacessíveis assim: pesquisas como as do filósofo Nick Bostrom ou do cientista cognitivo e da computação, Brian Cantwell Smith, com linguagem, via de regra, inteligível para o grande público – e apenas dois dos tantos exemplos nesse sentido – poderiam fornecer camadas mais densas para uma discussão que interessa a sociedade e que deve ser melhor depurada na imprensa.
O segundo ponto é o tom conciliatório e por demais conformista: estamos tão rendidos assim às big techs que dependemos só da boa vontade de Google, Microsoft e afins para que a inteligência artificial não seja utilizada como instrumento para, dentre outros, conteúdos de má qualidade ou processos de desinformação?
Falta de imaginação e de interesse por alternativas de ruptura. O jornalismo, enquanto mecanismo de difusão daquilo que é de interesse público, não deveria ser regulado exclusivamente pela mão bastante visível de gigantes do mercado de tecnologia.
No livro A mídia e a modernidade, o sociólogo americano John B. Thompson – falando sobre a formação contemporânea da mídia – enuncia uma ideia interessante de ecossistemas regulados "de tal maneira que não se enfraqueça a diversidade e o pluralismo pela concentração de poder econômico e simbólico".
Adaptando o raciocínio e indo na contramão do senso comum de um liberalismo mais raso, esse talvez seja também um caminho para o desenvolvimento de inovações a partir de uma perspectiva minimamente mais humana das relações econômicas e em benefício da sociedade, não de corporações "grandes demais para quebrar". Uma via para que não se tema a tecnologia como em uma versão histérica de Tempos modernos: afinal, como disse Marx, ferramentas tecnológicas são "órgãos do cérebro humano criados pela mão humana". E há beleza nisso.
Duas ou três coisas sobre jornalismo, relevância e autenticidade
No livro The Promise of Artificial Intelligence, Brian Cantwell Smith explica que "todos os sistemas de IA existentes, incluindo os contemporâneos, não sabem do que estão falando" e que não há razão atual para supor – embora existam muitas para duvidar – de que qualquer sistema "que tenhamos ideia de como construir" saberá distinguir os estados de suas representações/criações.
É como se ferramentas como o ChatGPT fossem incapazes de interpretar o que de fato elas estão fazendo (não penso, logo, computo): há uma composição lógica de dados que podem ser reunidos de modo ordenado, por exemplo, em um texto, mas não há autenticidade ou real interpretação.
A ferramenta pode ser útil? Evidentemente, sobretudo se o que se busca é um conteúdo sem maior relevância interpretativa. Há vasta demanda nesse sentido no universo da comunicação.
Em artigo recente, a editora da Plataforma9, Mirna Wabi-Sabi questiona sobre "o que estamos fazendo, como escritores e educadores, para estimular a autenticidade?" e reflete que o real motivo de pânico não é o ChatGPT, mas um sistema educacional que "encoraja a imitação e a insinceridade".
A leitura oferece uma provocação interessante para uma problemática mais profunda e estrutural: o papel da educação no sentido de reverter processos de produção intelectual pasteurizada e que já pode ser suprida por ferramentas de inteligência artificial.
Isso vale para jornalistas: quando nos sujeitamos aos modelos das "content farms" podemos (e talvez devamos) ser substituídos por máquinas.
Mas há vida fora dessas estruturas. E há beleza.