‘Humanismo digital’ deve integrar educação, tecnologia e pensamento crítico

‘Humanismo digital’ deve integrar educação, tecnologia e pensamento crítico
Publicado em 17/12/2024 às 9:23

Ainda é possível garantir que a inteligência artificial (IA) integre a diversidade e o pluralismo de nossa sociedade? Em um ambiente de extrema polarização política e concentração de poder nas mãos de poucas empresas de tecnologia, essa ideia parece uma utopia. No entanto, há quem acredite que sim.

Um deles é o filósofo belga Mark Coeckelbergh, que esteve no Brasil para lançar seu livro “Ética na Inteligência Artificial” (Ubu Editora, 192 páginas). Desde 2015, ele é professor titular de Filosofia da Mídia e Tecnologia no Departamento de Filosofia da Universidade de Viena, na Áustria. Coeckelbergh também atua como pesquisador da Rede Mundial de Tecnologia (WTN) e integra o Grupo de Especialistas de Alto Nível da Comissão Europeia sobre Inteligência Artificial, além de participar do Conselho Austríaco de Robótica e Inteligência Artificial. Ele já publicou mais de quinze livros e diversos artigos no campo da filosofia da tecnologia, com foco na relação entre ética e tecnologias como a robótica e a IA.

Palestra de Mark Coeckelbergh no CGI.br

Mark Coeckelbergh traça um panorama dos problemas éticos com a IA – desde narrativas influentes sobre o futuro da IA e questões filosóficas sobre a natureza e o futuro do ser humano

Em um evento promovido pelo CGI.br (Comitê Gestor da Internet no Brasil) e do NIC.br (Núcleo de Informação e Coordenação do Ponto BR) no início de outubro, em São Paulo (SP), pouco antes de sua participação na FLIP (Festa Literária de Paraty), Coeckelbergh apresentou um panorama dos dilemas éticos associados à IA. Ele discutiu temas que vão desde as narrativas que moldam o futuro da IA e reflexões filosóficas sobre o destino da humanidade até questões de responsabilidade, privacidade e vieses.

📳 Inscreva-se no canal do Porvir no WhatsApp para receber nossas novidades

“Meu livro tem dois objetivos principais. Primeiramente, contextualiza a discussão em um panorama amplo, abordando a ética no contexto social e filosófico. Exploro questões filosóficas sobre o status moral da IA, questionando as narrativas e cenários imaginários que envolvem o tema e analisando as histórias que emergem com o avanço da IA, um assunto cada vez mais relevante. Critico, em meu livro, cada uma dessas histórias, mas o foco principal é a ética aplicada ao mundo da inteligência artificial”.

A necessidade de tratar questões éticas, especialmente aquelas que antecedem a IA, como a proteção de dados e a privacidade, é amplamente conhecida. “Essas preocupações remontam à Revolução Industrial, e o futuro do trabalho também é uma questão que nos acompanha desde o século 19, quando as máquinas começaram a substituir o trabalho manual”. Atualmente, segundo Coeckelbergh, a IA amplia as possibilidades de automação, tornando as questões de privacidade, responsabilidade e ética ainda mais urgentes.

“Um exemplo prático é a responsabilidade no uso de IA em veículos autônomos: quem deve ser responsabilizado em caso de acidente? Essa responsabilidade não se resume a ‘quem é o responsável’ e ‘pelo quê’, mas também a ‘para quem’. Existe uma lacuna na discussão sobre IA: para quem devemos nos responsabilizar? Esse questionamento é fundamental, pois a tecnologia, por mais avançada que seja, não possui transparência suficiente para responder por suas ações, como poderíamos esperar de uma pessoa.

CGI.Br/DIvulgação Mark Coeckelbergh é especialista em ética aplicada à tecnologia, publicou mais de quinze livros, participou de projetos europeus na área de robótica e inteligência artificial, e integra conselhos internacionais sobre ética e tecnologia.

“Na vida moderna, se algo dá errado, como a morte de uma pessoa, podemos interrogar o responsável pelo ato. No entanto, a tecnologia não responde, pois não é um ser moral. Podemos obter explicações técnicas sobre seu funcionamento, mas não uma justificativa moral, como se obteria de um ser humano”, disse. Esse é um dos principais desafios: a tecnologia não responde, o que afeta questões de transparência e justiça e levanta dúvidas sobre viés e discriminação.

A discriminação, por exemplo, é um problema que antecede a Revolução Industrial, mas que hoje recebe mais atenção, pois a IA pode perpetuar vieses por meio de dados tendenciosos, explicou o filósofo. “Isso me levou a refletir também sobre os aspectos políticos associados à IA. Além das questões técnicas, há a necessidade de compreender e enfrentar as consequências éticas e políticas desse avanço, especialmente com a IA generativa, como os chatbots (sistemas que imitam conversas)”.

“A IA generativa não só contribui em tarefas complexas, mas começa a substituir atividades que antes dependiam exclusivamente de humanos. Isso cria um cenário em que o impacto no mercado de trabalho se torna uma preocupação urgente, assim como o risco de desinformação. Embora a desinformação anteceda a IA, hoje é intensificada pela capacidade dessas tecnologias de manipular informações em larga escala”, disse.

Segundo o professor, as questões éticas e políticas relacionadas ao uso e abuso da IA em contextos de poder, liberdade e democracia tornam-se ainda mais urgentes quando se observa que grandes empresas de tecnologia, as Big Techs, possuem mais poder que muitos governos. A relação entre IA e democracia é explorada mais a fundo em seu livro mais recente, “Why AI Undermines Democracy and What To Do About It” (“Por que a IA Enfraquece a Democracia e o Que Fazer a Respeito”), ainda não publicado no Brasil.

“Minha pergunta central é: qual é o impacto da IA sobre a democracia? Se a influência da IA é negativa, como garantir que ela fortaleça, em vez de enfraquecer, os valores democráticos? Hoje, a IA põe em risco as bases consensuais das democracias e, frequentemente, não contribui para o bem comum. Proponho, em meu livro, caminhos para tornar a IA mais democrática, visando expandir a discussão para uma direção mais política e prática”.

Hoje, a IA põe em risco as bases consensuais das democracias e, frequentemente, não contribui para o bem comum.

Ao longo da história, lembra o autor, a tecnologia frequentemente serviu a interesses centralizadores de poder. “Desde o século 19, o Big Data (grandes bancos de dados), ainda sem a sofisticação da IA, era usado para sustentar o poder das elites. Civilizações antigas, como a egípcia, usavam as tecnologias de sua época para manter o controle, e, da mesma forma, hoje enfrentamos o desafio de evitar que o poder tecnológico se concentre nas mãos de poucos. A IA, além de um sistema técnico, evoca narrativas e aspirações coletivas, conectando-se à nossa imaginação e sonhos sociais. Por isso, ela deve ser analisada não só tecnicamente, mas também politicamente e em seu imaginário”.

“Democracia é um conceito que, como filósofo, tento sempre definir e contextualizar. Em meu livro, argumento que devemos observar não apenas o impacto da IA nas eleições, mas também seu efeito sobre o diálogo e o bem comum. A democracia envolve discutir as perspectivas alheias, ouvir e aprender com diferentes pontos de vista”. No entanto, Coeckelbergh reconhece que, se a IA fragmenta a esfera pública, minando a possibilidade de um debate aberto, ela prejudica a base necessária para uma democracia saudável.

Ao longo da apresentação, Mark também questionou o modo como a democracia é praticada atualmente. Além do voto, uma democracia robusta exige participação ativa e entendimento compartilhado dos assuntos públicos. O autor alerta que a IA, ao reforçar bolhas de informação e dificultar o diálogo, pode enfraquecer a democracia e favorecer o isolamento e a desinformação, característicos de regimes autoritários.

Para enfrentar esses desafios éticos da IA, ele propõe o fortalecimento das instituições democráticas e a criação de novas estruturas que integrem expertise técnica com a democracia. Coeckelbergh sugere que a IA pode, quando usada de forma responsável, facilitar o acesso à informação, o debate e o consenso democrático, desde que seja devidamente regulada. Construir uma “cultura ética” de IA exige educação e uma mudança cultural que promova um “humanismo digital”.

Na entrevista concedida ao Porvir, que você pode ler a seguir, Mark Coeckelbergh relaciona as ideias abordadas em sua palestra com o contexto da educação. Confira os principais trechos.

Porvir – Como podemos preparar os professores para enfrentar os desafios de um mundo cada vez mais integrado à tecnologia e à inteligência artificial?

Mark Coeckelbergh – Acredito, antes de tudo, que os professores desempenham um papel essencial na sociedade. No meu livro sobre democracia, destaco que a educação é um elemento-chave, não apenas para ensinar sobre tecnologia, mas também para fortalecer a democracia.

Penso que esse trabalho deve começar cedo, e os professores têm um papel central nisso, ao lado dos pais e de outros apoiadores. No meu livro, sugiro que não precisamos ensinar apenas as questões técnicas da IA, como o uso de programas, pois as crianças descobrem isso sozinhas.

Precisamos abordar a questão filosófica. Como filósofo, faço perguntas sobre o que é a boa vida. Como integrar essa tecnologia à minha vida pessoal? Quais são as limitações da tecnologia? Talvez eu tenha expectativas irreais de que a tecnologia possa resolver tudo e seja plenamente inteligente, mas não é bem assim. Os professores precisam ensinar sobre essas limitações.

Devemos também questionar, de forma filosófica, como queremos viver. Queremos estar sempre no celular? Queremos que a comunicação aconteça majoritariamente pelo celular? Em alguns momentos, pode ser conveniente, como para marcar um encontro, mas, em outras situações, pode não ser ideal, especialmente quando estamos na mesma sala.

É sobre isso, essa questão atemporal de como viver melhor, agora com as tecnologias. E, como professor, é preciso adaptar essa reflexão à faixa etária dos alunos. Para as crianças, basta uma orientação; já para adolescentes, precisamos desenvolver habilidades críticas para refletir sobre tecnologia e sociedade. Essa é a essência do humanismo digital. Temos o humanismo tradicional, onde aprendemos o pensamento crítico com textos clássicos, e essa abordagem ainda é válida. No entanto, hoje precisamos de uma educação humanística digital que integre o uso e a análise crítica das tecnologias e conteúdos mediados por elas.

Temos o humanismo tradicional, onde aprendemos o pensamento crítico com textos clássicos, e essa abordagem ainda é válida. No entanto, hoje precisamos de uma educação humanística digital que integre o uso e a análise crítica das tecnologias e conteúdos mediados por elas.

Por exemplo, em sala de aula, podemos utilizar um chatbot e explorar suas limitações. Incentivar os alunos a questionarem e discutirem: “Isso é útil? Talvez nem sempre.”

Dessa forma, eles aprendem a trabalhar com a tecnologia de maneira crítica. Por exemplo, ao tratar de temas de história ou geografia, a tecnologia pode ser usada, mas de maneira crítica. O professor guia os alunos, indicando o que é ou não de qualidade e, assim, capacita-os a realizar pesquisas e a refletirem criticamente sobre o conteúdo.

Porvir – Como desenvolver uma visão crítica em um cenário tão marcado por discussões sobre superinteligência e singularidade tecnológica propagado pelas empresas? Essas narrativas podem, muitas vezes, nos desorientar, gerando a sensação de que devemos simplesmente seguir o que a máquina ou o sistema indicam. Como manter o equilíbrio diante disso?

Mark Coeckelbergh – Na educação clássica, o humanismo nos ensina a olhar criticamente para os textos. Mas, quando se trata de tecnologia, as pessoas esquecem essas habilidades críticas e simplesmente seguem o que os especialistas ou CEOs da tecnologia afirmam. Precisamos aprender a olhar criticamente para essas narrativas também.

Isso pode fazer parte da educação cívica e política, ensinando a analisar discursos de políticos, bem como de figuras como Elon Musk. Precisamos questionar: “Isso é verdade? Qual é a intenção por trás disso?” Em vez de focarmos apenas no conteúdo, devemos sempre perguntar quem escreveu o texto e com qual objetivo.

Porvir – E como podemos promover o uso responsável dos recursos de inteligência artificial?

Mark Coeckelbergh – Em parte, precisamos treinar a escrita sem o auxílio da tecnologia. Se as pessoas não conseguem mais escrever, não conseguem avaliar criticamente o que a tecnologia produz. Às vezes, proibir o uso é necessário, mas não sempre. Devemos trabalhar com os alunos de forma crítica, questionando e analisando juntos.

Isso também requer a capacitação dos professores. Atualmente, há poucos especialistas na área, e as universidades precisam formar novos profissionais e oferecer programas específicos para ensinar aos professores não apenas como utilizar a tecnologia, mas como usá-la de maneira crítica.

Porvir – Em outras palavras, você considera que precisamos de um novo “contrato social” nas salas de aula para que tudo isso funcione de forma equilibrada?

Mark Coeckelbergh – Sim, pois atualmente pensamos na relação entre professor e aluno. Mas há um terceiro elemento: a tecnologia. Precisamos de um novo contrato social que reorganize as relações sociais e o processo educacional, integrando a tecnologia desde cedo, não apenas como uma ferramenta, mas também como um objeto de reflexão.

Em vez de termos apenas uma disciplina de ética, a ética deve estar presente em todas as disciplinas, assim como a educação sobre tecnologia e o humanismo digital.

Porvir – Fala-se muito sobre a educação em STEM (ciência, tecnologia, engenharia e matemática), que valoriza habilidades técnicas. Com a presença de IA, você avalia que as carreiras em STEM precisam de uma abordagem mais humanista e sociológica?

Mark Coeckelbergh – Sim, precisamos de uma abordagem proativa, que eduque engenheiros e cientistas sobre ética e humanidades. E, igualmente importante, os profissionais das humanidades, como filósofos e historiadores, também devem aprender sobre tecnologia, pois é essencial que as humanidades reconheçam o papel da tecnologia na sociedade.

A interdisciplinaridade é essencial e deveria começar já nas escolas. A educação baseada em problemas, que envolve diversas disciplinas em torno de temas, poderia ajudar a conectar as áreas desde cedo.

Porvir – Podemos esperar uma abordagem ética dessas empresas em relação à IA?

Mark Coeckelbergh – Não, não podemos confiar inteiramente nelas. É positivo que algumas iniciativas do setor privado busquem uma abordagem ética, especialmente empresas menores. Mas precisamos regulamentar essas empresas de forma democrática e promover uma discussão pública sobre o direcionamento da tecnologia.

Porvir – O Brasil tem enfrentado grandes e sucessivas ondas de desinformação. Esforços para alfabetização digital e midiática nas escolas são suficientes para combater isso?

Mark Coeckelbergh – É um grande desafio. O conteúdo falso será cada vez mais difícil de identificar. Assim, além de soluções técnicas, precisamos ensinar uma visão crítica, algo que já praticamos com textos. Devemos aprender a desconfiar das tecnologias, desenvolvendo um distanciamento crítico, o que requer tempo e educação.

E falando em tempo, ao abordar a educação com IA, o discurso costuma ser sobre economia de tempo. Mas educação é sobre investir tempo significativo. Qual sua opinião sobre isso?

A educação leva tempo. Portanto, precisamos investir tempo e recursos, especialmente porque o mundo dos negócios impõe a lógica de eficiência na educação, o que não é apropriado. Se entendermos o valor da educação para a sociedade, é escandaloso não investirmos o suficiente. Devemos dar aos professores tempo e condições adequadas, pois seu trabalho é desafiador.


✳️ Atenção: os links neste texto direcionam para a Amazon e contêm códigos de afiliado. Isso significa que, ao realizar uma compra por meio deles, o Instituto Porvir recebe uma porcentagem da venda, sem nenhum custo adicional para você. Agradecemos imensamente pelo seu apoio, que é fundamental para manter o site Porvir livre e gratuito, além de possibilitar que continuemos promovendo transformações na educação.