Nessa aula, a gente vai começar de uma forma diferente. Para falar de ética e responsabilidade no uso da IA, que é um tema pesado, eu gostaria de fazer um teste com você. Vou te mostrar algumas imagens, e você vai ter que decidir qual delas foi feita por inteligência artificial ou não. Também tem um teste aqui embaixo na descrição da aula, que criamos para você poder fazer isso com mais imagens e com mais tempo, mas tenta pensar rapidamente.
Vou te dar 5 segundos para cada imagem e a gente fala um pouquinho sobre elas. Aí você vai me falar qual delas foi criada com inteligência artificial, tá bom?
Essa imagem aqui de carro pegando fogo em um protesto: a da esquerda eu criei com o Midjourney, e a da direita é realmente um protesto em Paris. Onde mais haveria um carro pegando fogo, se não em Paris? Inclusive, quando fiz a imagem no Midjourney, também coloquei Paris justamente por causa disso. Essa imagem poderia ser usada para quê? Numa fake news, né? Por exemplo, "o clima em Paris está assim depois de certa decisão" e tal.
Agora essa imagem de um senhor fumando, qual delas foi feita por inteligência artificial? A resposta certa é a da direita, que também foi criada com o Midjourney. A da esquerda eu peguei do Pexels, de um fotógrafo específico.
Vamos para a próxima imagem: essa imagem aqui da guerra. Qual delas não existe? A que não existe é a da esquerda. Eu fiz essa imagem meio rápido, então tem algumas coisinhas que dão para perceber que é inteligência artificial, mas se isso aparecesse na sua timeline rapidamente, você não identificaria. A gente pode colocar quem quisermos, onde quisermos e contar qualquer história usando imagens de inteligência artificial.
Essa selfie aqui, qual delas foi criada com IA? Qual dessas mulheres não existe? Na verdade, as duas não existem, porque criei as duas usando o Midjourney para isso. Não quis usar imagem de ninguém real em selfie.
Agora, qual dessas imagens foi feita com IA? Está cada vez mais difícil saber qual imagem é verdadeira ou não, mas, por enquanto, é a da direita, criada com o Grok, que é a inteligência artificial do Twitter, agora chamado X. Ela me permite criar qualquer tipo de imagem desse tipo, o que é perigosíssimo. Criei essa imagem para mostrar como algo pode cair em fake news facilmente.
Com grandes poderes vêm grandes responsabilidades. Não dá para falar de inteligência artificial sem discutir ética e responsabilidade na criação e no uso da IA de forma geral. Por isso, achamos tão importante trazer isso para o CR_IA, porque estamos te dando superpoderes. Espero que, com tudo que você está aprendendo no CR_IA, consiga se sair super bem na sua carreira, mas isso tem uma troca: precisamos usar isso de forma ética.
Quando falamos de IA, onde tudo é possível, é um pulo só para algo perigoso. Nem o Homem-Aranha está a salvo disso. Essa imagem do Homem-Aranha num boteco em São Paulo tomando uma cervejinha é fake. Essa imagem do Homem-Aranha pegando sol na praia de Copacabana, no Rio de Janeiro, também é fake. E essa do Homem-Aranha num protesto da CUT não existe; ele nunca esteve nesse protesto.
A gente deve tomar cuidado com isso. Por exemplo, vi uma imagem falsa do Homem-Aranha sendo filmado por uma câmera de segurança roubando um uísque, que também é fake. Eu me diverti muito fazendo essa aula, mas precisamos lembrar que não dá para falar de IA sem discutir ética, limites e o que podemos levar à IA. Isso é muito importante. Grandes poderes e grandes responsabilidades, sempre.
Essas discussões éticas são amplas e envolvem tudo que está acontecendo no mundo. Podemos olhar de um ponto de vista pessimista, dizendo que o mundo está uma desgraça e vai piorar, porque cada vez mais vamos encontrar fake news, golpes e vai ser exaustivo manter a noção de realidade na vida real. Se tudo pode ser falso, o que é verdade?
Existem muitos golpes usando IA. Por exemplo, desde 2023 já existem golpes desse tipo. Estou trazendo golpes bem conhecidos para falar sobre isso. A tecnologia está cada vez mais avançada, então os golpes ficam mais elaborados. Um golpe clássico pegava o nome do César Tralli e dizia o seguinte: "Primeiramente, um prazer enorme estar aqui com você. Hoje é o último dia para você conseguir realizar o saque do saldo preso em seu CPF. O programa criado pelo governo federal em parceria com a Caixa já tem mais de 80 mil resgates." Claro que o texto é ruim, mas engana muita gente. O golpe dizia que você poderia resgatar o saldo disponível no seu CPF, pagando uma pequena taxa que seria cobrada para liberar esse valor. Assim, coletavam os dados das pessoas e aplicavam o golpe fazendo-as pagar a taxa sem ter nenhum saldo disponível. Esse post foi patrocinado no Instagram, o que é um perigo enorme.
Quando falamos de legislação e regulamentação, não só de IA, mas de redes sociais e internet como um todo, precisamos evitar que isso aconteça. É um absurdo.
Outro exemplo de golpe usando IA são clonagens de voz. Como falo muito online, acharam fácil clonar minha voz e enviar para minha mãe um áudio dizendo: "Acabei de ser assaltado no centro de São Paulo, e preciso de mil reais. Se você me fizer um Pix de mil reais, eu passo o número do celular da pessoa que peguei para usar aqui na rua." Quantas avós, pais e mães podem cair num golpe desses por ouvir uma voz muito parecida? Isso é muito fácil de fazer com inteligência artificial. Aí fica uma pergunta para você: se amanhã alguém fizesse um deepfake seu pedindo PIX, como você provaria que é falso? O que faria? Essa é uma questão básica, mas com muitos pontos importantes.
Como saber o que é real e o que não é no mundo da IA? Não há uma resposta simples, pois cada vez ficará mais difícil. O ideal é sempre checar fatos, duvidar e tentar encontrar detalhes em imagens. Temos várias aulas no CR_IA que ajudam a identificar isso.
Peço que você informe sua família sobre esses golpes, para que, em casos assim, eles liguem para você, falem contigo por vídeo, mostrem que é você mesmo. Tem tantas possibilidades e imprevisibilidades hoje em dia que o cuidado é essencial. Saber o que é real não vale só para golpes, mas para toda informação que consumimos o tempo todo.
Falamos bastante desse problema, mas qual solução para isso? Como criar uma IA mais ética? Não existe uma resposta simples para isso, especialmente numa aula de 15 minutos, mas quero trazer alguns pontos importantes para você pensar no seu uso da IA e no uso das outras pessoas. É fundamental fazer parte das discussões éticas.
Trago quatro pontos principais, para tornar a discussão mais leve, trazendo até cachorrinhos:
- Transparência: Sistemas de IA devem explicitar a lógica, dados e critérios por trás de cada decisão, permitindo que as pessoas afetadas entendam e questionem o porquê. Isso envolve também entender quem é dono dessas ferramentas de IA, como o ChatGPT, que é da OpenAI, e comentar o impacto de figuras como Elon Musk se tornarem majoritários na OpenAI. Transparência não é só sobre o funcionamento da IA, mas também sobre o uso dos dados e os interesses por trás dessas empresas.
- Justiça: Os modelos precisam ser testados, ajustados e cobrados para minimizar vieses e preconceitos, garantindo equidade na performance. Isso é fundamental para que sistemas de segurança, por exemplo, não prejudiquem grupos historicamente marginalizados, como pessoas negras. Uma IA ética busca imparcialidade e monitora resultados constantemente.
- Privacidade: Dados pessoais só devem ser usados com consentimento e para finalidades legítimas, sempre preservando o anonimato e evitando vazamentos. Isso é essencial e está ligado à transparência. Os fins não justificam os meios: a IA não pode violar direitos e privacidade para alcançar desempenho. Muitas leis estão sendo aplicadas nesse sentido, especialmente na Europa, onde o uso da IA é fortemente regulado.
- Responsabilidade: Empresas devem responder pelos impactos da IA, garantindo supervisão humana, auditorias independentes e reparação em caso de danos. Quem desenvolve e opera IA deve se responsabilizar pelo seu funcionamento e consequências. Por exemplo, se um carro autônomo causar um acidente, quem é o responsável? Essa discussão está muito presente em legislações pelo mundo, especialmente no Brasil. É importante também o ponto individual: um computador nunca pode ser responsabilizado por suas decisões; a responsabilidade final é sempre do usuário que tomou decisões baseadas em insights da IA. Nunca diga "foi a IA que fez isso dar errado". A responsabilidade é sua.
Muitos especialistas acreditam que é possível alcançar uma IA mais ética, mas envolve muito trabalho contínuo. Não é algo que se resolve clicando num botão. Existem cinco players envolvidos nesse processo:
- Big Techs: Devem ser cobradas por transparência, justiça, privacidade e responsabilidade.
- Governos: Precisam legislar e proteger a população, especialmente dos abusos das Big Techs. No Brasil há muita reclamação para que o país seja mais rigoroso com essas empresas.
- Comunidade de pesquisa: Universidades, ONGs e grupos de direitos digitais estão propondo formas de lidar com ética na IA.
- Diversos setores da sociedade: Construir uma IA ética envolve todos, não só tecnólogos, pois as consequências do uso da IA impactam toda a sociedade, até quem não quer se envolver. É necessário diálogo entre engenheiros, filósofos, juristas, minorias afetadas e usuários em geral.
- Você: Começa com você que está assistindo a aula, participando dessas discussões e levando essa reflexão para sua empresa, equipe e círculo de trabalho.
Não existe ética sem regulamentação. Assim como surgiram regulamentações para carros após muitas mudanças sérias, a IA precisa passar por esse processo. Precisamos participar dessas discussões e levar isso adiante. No CR_IA temos outras aulas que aprofundam essa discussão. É nossa missão construir inteligências artificiais melhores e também assumir nosso papel para um uso responsável da IA.
É isso. Até a próxima aula.