02 Fev 2019

Hora de agir rápido contra as mudanças climáticas

Dan Zak, no Washington Post: “‘No Arizona, durante verão, os pinheiros não cheiram como antigamente’, diz Nikki Cooley, ‘e o vento às vezes parece errado, como se estivesse soprando no caminho errado, na época errada do ano.’ Ela sabe que estes são sentimentos, não dados, mas os mede mesmo assim. Os cientistas também têm dito isso. Com dados. Um painel da ONU relatou em outubro que temos cerca de 12 anos para agir se quisermos evitar que o ‘muito horrível’ se torne ‘realmente terrível’. Mas aqui é onde você para de ler, porque há uma conta por pagar. Um filho para pegar na escola. Uma enxaqueca incomodando. Você está sentado à mesa, ou no metrô, e enquanto isso, no fundo do Oceano Índico meridional, as baleias azuis estão chamando umas às outras em tons mais altos, para que sejam ouvidas sobre a rachadura e o derretimento do gelo polar. A mudança climática é uma ‘grande questão’, disse o chefe interino da Agência de Proteção Ambiental a um comitê do Senado americano neste mês, mas não a nossa ‘maior crise’. Apenas um acúmulo de curiosidades e irritações. Seu porão agora inunda todos os anos em vez de a cada a cinco ou dez. Sua asma piorou. Esse é o enigma. Para entender o problema, temos que desacelerar. Para responder a isso, temos que agir rápido. E nós não temos mais muito tempo.”

“O meu destino é ser e estar”. Foi com esse tweet que Lulu Santos causou histeria nas redes sociais.“Eu cantava errado?”, muitos fãs questionaram, lembrando que o verso amplamente conhecido da música De repente, Califórnia (Spotify) diz “o meu destino é ser star”. Os encartes do álbum Tempos Modernos, lançado em 1982, começaram a reaparecer na rede. Mas muitos só sossegaram quando o próprio Lulu explicou que a letra da música continua a mesma. “A tuitada foi uma variação poético/filosófica”, afirmou. Ufa.

Pierre de Gigord viajou pela Turquia pelos anos 80, colecionando fotos da virada do século 19 para o 20, época do império Otomano. No final de dezembro o Getty Research Institute digitalizou as 6.000 fotografias da coleção e disponibilizou, gratuitamente, online. A turma do Hyperallergic fez uma boa seleção.

Fan Ho, falecido em 2016, foi um fotógrafo, ator e diretor de cinema chinês. Viveu em Hong Kong nas décadas de 50 e 60, é chamado por alguns de o Cartier-Bresson do Oriente, por retratar o dia a dia da vida nas ruas da cidade. Em março, a galeria Blue Lottus de Hong Kong vai inaugurar uma exposição com a última coletânea de fotos selecionadas pelo próprio Fan.

Dale de la Rey, fotógrafo da AFP, passou três meses tirando fotos com um drone dos lugares mais remotos da Hong Kong de hoje, descortinando a cidade como vista pelos pássaros.

A Era da Inteligência Artificial chegou

No ano que vem, quando os Jogos Olímpicos chegarem ao Japão, Nissan e Toyota planejam fazer desfilar pelas ruas de Tóquio carros autônomos de nível 4. São aqueles nos quais o ‘motorista’ pode se distrair à vontade — o carro faz tudo por conta própria. E não tem como negar, mesmo para quem já andou num destes, que há um quê de mágico nisso. Um carro que se comporta como gente ao volante — ou até melhor. Não é à toa que é uma tecnologia com cara de mágica. Porque, para que o carro andasse sozinho, foi preciso antes mudar por completo a maneira como se pensa software. Na última década, desenvolveu-se o que hoje chamamos de ‘inteligência artificial’. É um jeito radicalmente diferente de fazer software que só agora começa a ser aplicado. Nossa vida vai mudar muito conforme estas aplicações surjam.

Cedo pela manhã, no dia 8 outubro de 2005, um pequeno grupo de times se reuniu no deserto de Mojave, entre os estados da Califórnia e Nevada, para disputar pela segunda vez um concurso financiado pelo Exército Americano. Venceria quem conseguisse completar um circuito de 212 km em menos de dez horas com um veículo robô. Não por controle remoto, mas autônomo. Nunca havia sido feito. No ano anterior, o melhor carro percorrera menos de 12 km. Mas desta vez foi distinto: quatro completaram o percurso, e o mais rápido, aquele projetado pelo professor alemão Sebastian Thrun, da Universidade de Stanford, o fez em 6 horas, 54 minutos. Valeu a eles o prêmio de US$ 1 milhão e, a Thrun, um emprego no Google.

O primeiro carro autônomo projetado por Thrun no Google saiu das garagens da empresa para rodar pelas ruas em 2009. Com motorista. Ao longo do tempo, mais e mais protótipos foram criados. Se no início circulavam apenas no pátio da garagem, com o tempo ganharam as ruas da pequena cidade de Mountain View e, então, as estradas da Califórnia. Eram carros com sensores de todo tipo: câmeras, sonares, GPS. Cada sensor produzindo dados devidamente armazenados a respeito de tudo que ocorria em volta. Se o sinal fechava, se alguém atravessava, ou quando uma bola corria seguida dum menino. Este grande banco de dados registrava também tudo o que fazia o motorista: com que pressão apertava no freio, como girava o volante, em que momento ligava a seta. Quanto mais carros e mais viagens, maior ficava este banco de dados que relacionava as ações de quem dirige com o que ocorre externamente.

Porque, para resolver o problema, os engenheiros não escreveram um software que ensinasse o carro a dirigir. Tentaram um outro caminho: que o carro aprendesse por conta própria, seguindo o exemplo de uma pessoa. Se sempre que uma bola corre o motorista freia, aquilo é um comportamento a seguir. Claro: uns freiam de forma mais abrupta, outros com mais suavidade, mas tirando sempre uma média, o programa aprende. E aprende melhor conforme mais dados recebe.

É por isto que Big Data é importante. Big Data, grandes bases de dados sobre um tema específico, é o que informa o aprendizado da máquina. Se é uma boa base, grande e com muita diversidade de exemplos, a máquina aprenderá bem. Com dados piores, ela será pior. Inteligência artificial é um nome ruim e impreciso. Quer dizer muitas coisas. Hoje, quando falamos de IA, falamos na verdade sobre uma das formas de IA: Aprendizado de Máquina. Ou, no termo habitualmente usado em inglês, Machine Learning.

Se antes engenheiros, para resolver um problema, escreviam um software em que se viam obrigados a prever cada possibilidade que pudesse ocorrer, com Machine Learning a lógica é outra. Pega-se um banco de dados com casos do mundo real e se apresenta ao computador para que ele aprenda como agir. Nunca ninguém havia conseguido construir um carro autônomo. Com a nova técnica, se tornaram viáveis em dez anos. Não são, nem de longe, o único caso.

A indústria dos smartphones percebeu desde o início que as pessoas queriam tornar aqueles aparelhos suas câmeras digitais. Mas, com lentes tão pequenas e parco espaço para os sensores que interpretam as imagens capturadas, a tarefa de melhorar a qualidade parecia impossível. Até o momento em que se aplicou machine learning.

Este é um processo que começou em 2015, quando o Google lançou o app Photos. Era um salto imenso perante tudo que havia no mercado, um software capaz de pegar a biblioteca de milhares de fotos que todos temos e organizá-la. Capaz de reconhecer que uma imagem foi feita em Paris, que outra é uma mesa de café da manhã, e distinguir um panda de uma vaca holandesa. O banco de dados que treinou este software foi a web aberta, com suas milhões fotografias com legendas escritas por pessoas. Cada uma das tantas fotos de panda publicadas na rede permitiu que o computador buscasse os padrões de similaridade e aprendesse como reconhecer um panda ou o que faz de uma cena algo que nós, humanos, de presto reconhecemos como café da manhã e não jantar.

O passo seguinte são as tecnologias que começamos a perceber em nossos smartphones nos últimos dois anos. O algoritmo que desfoca o fundo de um retrato, por exemplo, o faz por reconhecer que há uma pessoa ali cujo contorno pode ser recortado. Mais recentemente, nos celulares que fabrica, o próprio Google começou a adotar a técnica de não tirar uma, mas várias fotos simultaneamente. A imagem final é a reconstrução a partir da soma de muitas. Seu Night Mode reconstrói as cores apesar da falta de luz, pois aprendeu como fica o branco, a cor de pele, o azul ou o verde quando pouco iluminado. A tecnologia de fotografia não está mais na câmera e sim no software que reinventa aquilo que a câmera não pôde capturar.

Cada vez que alguma fotografia de panda é incluída por um usuário qualquer no Google Photos, o programa fica mais inteligente para reconhecer um panda na biblioteca de todos. Sempre que uma foto em ambiente conhecido que permita comparação com o local de dia é batida à noite, o programa também melhora. Esta é uma característica fundamental de aprendizado de máquina: melhora com o tempo.

O mesmo processo, recentemente, começou a ser aplicado também à masterização de músicas. É cara esta etapa final na pós-produção das faixas de um disco. É quando a música é otimizada para soar o melhor possível não importa se reproduzida num celular, CD, se ouvida por streaming ou tocada num LP. O volume de cada instrumento, o balanço entre caixas esquerda e direita, o som stéreo. É, se é possível assim dizer, o que dá brilho e volume. Por isso mesmo, sempre exigiu engenheiros com ouvido musical, conhecimento técnico de gravação e reprodução, e muita experiência na mesa de edição. Mas dê a um algoritmo de aprendizado de máquina um conjunto de faixas antes e depois da masterização e, também isto, ele é capaz de aprender a fazer. Resultando num trabalho de acabamento mais barato para artistas iniciantes. E, possivelmente, melhor do que o feito por pessoas.

As aplicações são as mais distintas. CoreLogic, uma consultoria imobiliária em operação nos EUA, processou fotografias de pessoas presas para que o computador encontrasse padrões de similaridades. O objetivo, um quê lombrosiano, é tentar descobrir se é possível achar no retrato de qualquer um se aquela pessoa tem potencial criminoso. Pois é: a base de dados utilizada pode inserir um viés de todo humano nos resultados de um algoritmo. O Google Photos, por exemplo, por ter sido alimentado com fotos de pessoas brancas, não sabia distinguir bem, no início, pessoas negras. E foi um pequeno escândalo quando um rapaz viu uma amiga sendo identificada pelo sistema como um gorila. Da mesma forma, outro rapaz, com paralisia pós-acidente, foi impedido de voltar para casa porque seu condomínio, utilizando os programas da CoreLogic, via nele potencial criminoso. Tornou-se um drama kafkiano. Qualquer pessoa entenderia que o jovem Mikhail Arroyo sequer teria condições físicas de ser perigoso. Mas a máquina alimentada com fotos de presos decidiu que era.

Um dos instrumentos que a nova legislação europeia de privacidade de dados impõe às empresas é que todos têm o direito de saber se um software as impediu de conseguir um seguro ou um empréstimo. É direito do europeu — e, pela nova lei daqui, também do brasileiro — conversar com um humano e questionar a interpretação de seus dados oferecida pelo computador. A lei está se adequando aos limites da inteligência artificial.

Big Data e Machine Learning — que é o nome correto do que chamamos popularmente de IA — foram recentemente dominadas. As aplicações estão começando a surgir por toda parte. Software capaz de interpretar exames de imagem melhor do que um médico, carros que dirigem sozinhos, máquinas fotográficas que serão brevemente capazes de enquadrar um retrato tão bem quanto Cartier-Bresson. Um celular capaz de ligar para um restaurante fazendo-se parecer humano e marcar um jantar para três.

Um grupo de físicos na startup TAE Technologies, acredita que, utilizando-se das ferramentas de aprendizado de máquina, conseguirá enfim dominar a energia na fusão nuclear. É o tipo de energia que uma estrela produz. Seria possível, para uma usina assim, produzir muita energia com um mínimo de combustível nuclear. Mas não é um processo que nós tenhamos sido capazes de dominar, em grande parte, por sua imensa complexidade física. Há variáveis demais em cada experimento para compreender o que está acontecendo. E é justamente onde IA melhor opera: um vasto banco de dados, muitas variáveis, o que acontece quando se encontram, quais os padrões possíveis de rastrear. Se a mente humana não consegue processar tudo ao mesmo tempo, o computador talvez possa.

As técnicas de aprendizado de máquina estão dominadas. Kai-Fu Lee, um dos principais investidores do Vale do Silício, diz que estamos entrando na Era da Implementação. Mais e mais soluções vão surgir e, numa vasta quantidade de profissões, o trabalho de muita gente vai se tornar desnecessário. Há uma imensa transformação da sociedade que está se iniciando.

Então: Embora tenhamos buscado fontes de toda parte, muito desta edição se baseou no especial produzido pelo Verge sobre aprendizado de máquina hoje. Vale ver o todo.

Vídeo: Em 2006, Sebastian Thrun deu uma palestra contando a história de como construiu seu primeiro ‘carro robô’.

Leia mais: A Diferença Entre Inteligência Artificial, Machine Learning e Deep Learning, um artigo em português.

Brinque com a tecnologia: Para quem quer testar alguns conceitos de aprendizado de máquina, o Google disponibilizou uma ferramentaque roda no browser e que permite a qualquer um treinar algoritmos usando a câmera do computador. Com direito a tutorial (em inglês).

Aliás… O Google Photos ainda tem dificuldades com gorilas.

Vale a pena ver de novo, os links mais clicados da semana:

1. El País: Perfil de Pedro Aihara, do Corpo de Bombeiros de MG, porta voz da equipe de resgate em Brumadinho.

2. G1: Imagens detalhadas de Ultima Thule, o objeto mais distante já explorado no espaço.

3. G1: Fotos da tragédia de Brumadinho.

4. NexoOlavo de Carvalho, o guru do bolsonarismo.

Fonte: @Meio

Compartilhe

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *