Christopher Nolan quer que Oppenheimer seja um alerta para o Vale do Silício
Ao redor do tempo em que J. Robert Oppenheimer soube que Hiroshima havia sido atingida (assim como todo mundo no mundo), ele começou a ter profundos arrependimentos sobre seu papel na criação daquela bomba. Em um determinado momento, quando se encontrou com o presidente Truman, Oppenheimer chorou e expressou aquele arrependimento. Truman o chamou de chorão e disse que nunca mais queria vê-lo. E Christopher Nolan espera que, quando o público do Vale do Silício assistir ao seu filme Oppenheimer (lançado em 21 de junho), vejam algo de si mesmos lá também.
Depois de uma exibição de Oppenheimer no Whitby Hotel ontem, Christopher Nolan se juntou a um painel de cientistas e Kai Bird, um dos autores do livro em que Oppenheimer é baseado, para falar sobre o filme, American Prometheus. A audiência era composta principalmente de cientistas, que riram de piadas sobre os egos dos físicos no filme, mas também havia alguns repórteres, incluindo eu. Ouvimos debates breves demais sobre o sucesso da dissuasão nuclear e o Dr. Thom Mason, atual diretor de Los Alamos, falou sobre quantos funcionários do laboratório atual tiveram participações especiais no filme porque grande parte dele foi gravada nas proximidades.
Mas no final da conversa, o moderador Chuck Todd, do Meet the Press, perguntou a Nolan o que ele esperava que o Vale do Silício pudesse aprender com o filme. “Acho que o que eu gostaria que eles levassem é o conceito de responsabilidade”, disse ele a Todd. “Aplicado à IA? Isso é uma possibilidade aterrorizante. Aterrorizante”. Ele então esclareceu: “Quando você inova por meio da tecnologia, é preciso garantir que haja responsabilidade”. Ele se referia a uma ampla variedade de inovações tecnológicas que foram abraçadas pelo Vale do Silício, enquanto essas mesmas empresas se recusaram a reconhecer o dano que repetidamente geraram. “O surgimento de empresas nos últimos 15 anos que usam palavras como ‘algoritmo’, sem saber o que elas significam em qualquer sentido matemático significativo. Eles simplesmente não querem assumir a responsabilidade pelo que esse algoritmo faz”.
Ele continuou: “E aplicado à IA? Isso é uma possibilidade aterrorizante. Aterrorizante. Não menos porque, à medida que os sistemas de IA entram na infraestrutura de defesa, eles acabarão sendo encarregados de armas nucleares e, se permitirmos que as pessoas digam que isso é uma entidade separada da pessoa que está empunhando, programando, colocando a IA em uso, então estamos condenados. Tem que ser sobre responsabilidade. Temos que responsabilizar as pessoas pelo que fazem com as ferramentas que têm”.
Embora Nolan não tenha se referido a nenhuma empresa específica, não é difícil saber do que ele está falando. Empresas como Google, Meta e até Netflix dependem muito de algoritmos para adquirir e manter audiências, e frequentemente há resultados imprevisíveis e frequentemente hediondos para essa dependência. Provavelmente, o mais notável e verdadeiramente terrível é a contribuição da Meta para o genocídio em Mianmar.
“Pelo menos serve como uma história de advertência”. Embora uma turnê de desculpas seja virtualmente garantida nos dias de hoje depois que o algoritmo de uma empresa faz algo terrível, os algoritmos permanecem. Threads até mesmo lançou com um feed exclusivamente algorítmico. Ocasionalmente, as empresas podem lhe dar uma ferramenta, como o Facebook fez, para desativá-lo, mas esses algoritmos de caixa preta permanecem, com muito pouca discussão sobre todos os potenciais resultados negativos e muita discussão sobre os positivos. “Quando converso com os principais pesquisadores no campo da IA, eles se referem a isso agora como seu momento Oppenheimer”, disse Nolan. “Eles estão olhando para sua história para dizer quais são as responsabilidades dos cientistas que desenvolvem novas tecnologias que podem ter consequências não intencionais”.
“Você acha que o Vale do Silício está pensando nisso agora?”, perguntou Todd a ele. “Eles dizem que sim”, respondeu Nolan. “E isso é”, ele riu, “isso é útil. Pelo menos está na conversa. E espero que esse processo de pensamento continue. Não estou dizendo que a história de Oppenheimer oferece respostas fáceis para essas perguntas. Mas pelo menos serve como uma história de advertência”.
Resumo:
- O filme Oppenheimer aborda o tema da responsabilidade na inovação tecnológica;
- Nolan relaciona a história de Oppenheimer com a necessidade de accountability na era da inteligência artificial;
- O diretor alerta para os riscos de não se responsabilizar pelas consequências das tecnologias criadas, especialmente no caso de algoritmos usados por empresas como Google, Meta e Netflix.
#tecnologia #primeirapágina #filme #entretenimento #notícias #tecnologia #IA-inteligência-artificial