Enquanto o COVID-19 assolava o mundo em março, a gigante do varejo online Amazon lutava para responder à mudança repentina causada pela pandemia. Itens domésticos como água engarrafada e papel higiênico, que nunca ficavam fora de estoque, de repente se tornaram escassos. As entregas de um e dois dias atrasaram vários dias. Embora Jeff Bezos, CEO da Amazon, viesse a faturar US $ 24 bilhões durante a pandemia, inicialmente, a empresa teve dificuldade em ajustar seus processos de logística, transporte, cadeia de suprimentos, compras e fornecedores terceirizados para priorizar o estoque e a entrega de itens de maior prioridade.

Em circunstâncias normais, a complicada logística da Amazon é gerenciada principalmente por algoritmos de inteligência artificial. Aperfeiçoado através de bilhões de vendas e entregas, esses sistemas prevêem com precisão quanto de cada item será vendido, quando repor o estoque nos centros de distribuição e como agrupar as entregas para minimizar as distâncias de viagem. Mas como a crise pandêmica do coronavírus mudou nossos hábitos diários e padrões de vida, essas previsões não são mais válidas.

“Na indústria de CPG [bens de consumo embalados, na sigla em inglês], os padrões de compra do consumidor durante esta pandemia mudaram imensamente”, disse Rajeev Sharma ao Gizmodo, vice-presidente sênior e chefe global de soluções de inteligência artificial empresarial e engenharia cognitiva da empresa de consultoria de IA Pactera Edge. “Há uma tendência de pânico na compra de itens em maior número e de diferentes tamanhos e quantidades. Os modelos [de IA] podem nunca ter visto tais picos no passado e, portanto, forneceram resultados menos precisos”.

Entre as muitas coisas que o surto de coronavírus destacou, está a fragilidade de nossos sistemas de IA. E como a automação continua a se tornar uma parte maior de tudo o que fazemos, precisamos de novas abordagens para garantir que nossos sistemas de IA permaneçam robustos em face de eventos cisne negro que causam interrupções generalizadas.

Os algoritmos de inteligência artificial estão por trás de muitas mudanças em nossas vidas diárias nas últimas décadas. Eles mantêm o spam fora de nossas caixas de entrada e o conteúdo violento fora das redes sociais, com resultados bons e ruins. Eles lutam contra a fraude e a lavagem de dinheiro nos bancos. Eles ajudam os investidores a tomar decisões comerciais e, assustadoramente, auxiliam os recrutadores na análise das candidaturas a empregos. E eles fazem tudo isso milhões de vezes por dia, com alta eficiência – na maioria das vezes. Mas eles estão propensos a se tornarem não confiáveis ​​quando eventos raros como a pandemia covid-19 acontecem.

Entre as muitas coisas que o surto de coronavírus destacou, está a fragilidade de nossos sistemas de IA. E como a automação continua a se tornar uma parte maior de tudo o que fazemos, precisamos de novas abordagens para garantir que nossos sistemas de IA permaneçam robustos em face de eventos cisne negro que causam interrupções generalizadas.

Por que os algoritmos de IA falham

A chave para o sucesso comercial da IA ​​são os avanços no aprendizado de máquina, uma categoria de algoritmos que desenvolvem seu comportamento ao encontrar e explorar padrões em conjuntos de dados muito grandes. O aprendizado de máquina e seu subconjunto mais popular de aprendizado profundo já existem há décadas, mas seu uso era limitado anteriormente devido à quantidade intensiva de dados e requisitos computacionais. Na última década, a abundância de dados e os avanços na tecnologia de processador permitiram que as empresas usassem algoritmos de aprendizado de máquina em novos domínios, como visão computacional, reconhecimento de fala e processamento de linguagem natural.

Quando treinados com enormes conjuntos de dados, os algoritmos de aprendizado de máquina costumam descobrir correlações sutis entre pontos de dados que teriam passado despercebidos para analistas humanos. Esses padrões permitem que eles façam previsões que são úteis na maioria das vezes para o propósito designado, mesmo que nem sempre sejam lógicas. Por exemplo, um algoritmo de aprendizado de máquina que prevê o comportamento do cliente pode descobrir que as pessoas que comem fora em restaurantes com mais frequência são mais propensas a comprar em um determinado tipo de supermercado, ou talvez os clientes que compram muito online tenham mais probabilidade de comprar certas marcas.

“Todas essas correlações entre diferentes variáveis ​​da economia estão prontas para uso por modelos de aprendizado de máquina, que podem ajudar a para fazer melhores previsões. Mas essas correlações podem ser efêmeras e altamente dependentes do contexto”, disse David Cox, diretor da IBM no MIT-IBM Watson AI Lab, ao Gizmodo. “O que acontece quando as condições de base mudam, como aconteceu globalmente quando o COVID-19 chegou? O comportamento do cliente mudou radicalmente e muitas dessas antigas correlações não se sustentam mais. A frequência com que você come fora não prevê mais onde você vai comprar mantimentos, porque muito menos pessoas comem fora”.

“Todas essas correlações entre diferentes variáveis ​​da economia estão prontas para uso por modelos de aprendizado de máquina, que podem ajudar a fazer melhores previsões. Mas essas correlações podem ser efêmeras e altamente dependentes do contexto”.

À medida que os consumidores mudam seus hábitos, as correlações intrínsecas entre as inúmeras variáveis ​​que definem o comportamento de uma cadeia de suprimentos se desfazem e os velhos modelos de previsão perdem sua relevância. Isso pode resultar em estoques esgotados e atrasos nas entregas em grande escala, como a Amazon e outras empresas experimentaram. “Se suas previsões forem baseadas nessas correlações, sem uma compreensão das causas e efeitos subjacentes que impulsionam essas correlações, suas previsões estarão erradas”, disse Cox.

O mesmo impacto é visível em outras áreas, como bancos, onde os algoritmos de aprendizado de máquina são ajustados para detectar e sinalizar mudanças repentinas nos hábitos de consumo dos clientes como possíveis sinais de contas ameaçadas.

De acordo com a Teradata, fornecedora de serviços analíticos e de aprendizado de máquina, uma das empresas que usou sua plataforma para pontuar transações de alto risco teve um aumento de quinze vezes nos pagamentos móveis, à medida que os consumidores começaram a gastar mais online e menos em lojas físicas. (A Teradata não divulgou o nome da empresa por uma questão de política). Os algoritmos de detecção de fraude procuram anomalias no comportamento do cliente, e essas mudanças repentinas podem fazer com que eles sinalizem transações legítimas como fraudulentas. Segundo a empresa, ela conseguiu manter a precisão de seus algoritmos bancários e adaptá-los às mudanças repentinas causadas pelo lockdown.

Mas a perturbação foi mais fundamental em outras áreas, como sistemas de visão computacional, os algoritmos usados ​​para detectar objetos e pessoas em imagens.

“Vimos várias mudanças nos dados subjacentes devido ao COVID-19, que teve um impacto no desempenho de modelos de IA individuais, assim como em pipelines de IA de ponta a ponta”, disse Atif Kureishy, ​​vice-presidente de práticas emergentes globais, inteligência artificial e aprendizado profundo para Teradata. “À medida que as pessoas começam a usar máscaras devido ao COVID-19, temos visto uma queda no desempenho à medida que as coberturas faciais introduzem detecções erradas em nossos modelos”.

A tecnologia Retail Vision da Teradata usa modelos de aprendizado profundo treinados em milhares de imagens para detectar e localizar pessoas nos fluxos de vídeo das câmeras de lojas. Com recursos poderosos e potencialmente assustadores, a IA também analisa o vídeo em busca de informações, como atividades e emoções das pessoas, e o combina com outros dados para fornecer novos insights aos varejistas. O desempenho do sistema está intimamente ligado à capacidade de localizar rostos em vídeos, mas com a maioria das pessoas usando máscaras, o desempenho da IA ​​teve uma queda dramática.

“Em geral, o aprendizado de máquina e profundo nos dá modelos muito precisos, mas superficiais, que são muito sensíveis a mudanças, sejam condições ambientais diferentes ou comportamento de compra impulsionado pelo pânico por parte dos clientes”, disse Kureishy.

Ilustração mostra coronavírus sendo seguidos por zeros e uns. Crédito: Angelica Alzona/Gizmodo
Ilustração: Angelica Alzona/Gizmodo

Causalidade

Nós, humanos, podemos extrair as regras por trás dos dados que observamos na natureza. Pensamos em termos de causas e efeitos e aplicamos nosso modelo mental de como o mundo funciona para entender e nos adaptarmos a situações que não vimos antes.

“Se você vir um carro saindo de uma ponte e caindo na água, não precisa ter visto um acidente como esse antes para prever como ele se comportará”, disse Cox. “Você sabe algo (pelo menos intuitivamente) sobre por que as coisas flutuam, e você sabe coisas sobre do que o carro é feito e como ele é montado, e pode raciocinar que o carro provavelmente flutuará um pouco, mas acabará enchendo de água e afundando”.

Os algoritmos de aprendizado de máquina, por outro lado, podem preencher o espaço entre as coisas que já viram, mas não podem descobrir as regras subjacentes e os modelos causais que governam seu ambiente. Eles funcionam bem, desde que os novos dados não sejam muito diferentes dos antigos, mas assim que o ambiente passa por uma mudança radical, eles começam a quebrar.

“Nossos modelos de aprendizado de máquina e aprendizado profundo tendem a ser ótimos em interpolação – trabalhando com dados semelhantes, mas não exatamente iguais aos que vimos antes – mas eles costumam ser terríveis na extrapolação – fazer previsões a partir de situações que são fora de sua experiência”, diz Cox.

A falta de modelos causais é um problema endêmico na comunidade de aprendizado de máquina e causa erros regularmente. Isso é o que faz com que Teslas em modo semi-autônomo batam contra barreiras de concreto e a já abandonada ferramenta de contratação da Amazon movida a IA a penalizar uma candidata a emprego por colocar “capitã do clube de xadrez feminino” em seu currículo.

“Nossos modelos de aprendizado de máquina e aprendizado profundo tendem a ser ótimos em interpolação – trabalhando com dados semelhantes, mas não exatamente iguais aos que vimos antes – mas eles costumam ser terríveis na extrapolação – fazer previsões a partir de situações que são fora de sua experiência”.

Um exemplo severo e doloroso da falha da IA ​​em entender o contexto aconteceu em março de 2019, quando um terrorista transmitiu ao vivo o massacre de 51 pessoas na Nova Zelândia no Facebook. O algoritmo de IA da rede social que modera conteúdo violento falhou em detectar o vídeo hediondo porque ele foi filmado em perspectiva de primeira pessoa, e os algoritmos não eram treinados com conteúdo semelhante. Ele foi retirado manualmente, e a empresa lutou para mantê-lo fora da plataforma enquanto os usuários postavam cópias dele.

Grandes eventos, como a pandemia global, podem ter um efeito muito mais prejudicial porque acionam essas fraquezas em muitos sistemas automatizados, causando todos os tipos de falhas ao mesmo tempo.

Como lidar com eventos surpresa

“É fundamental entender que os modelos de IA/ML [inteligência artificial e aprendizado de máquinas]  treinados em dados de comportamento do consumidor estão fadados a sofrer em termos de precisão de previsão e potência das recomendações em um evento cisne negro como a pandemia”, disse Sharma da Pactera. “Isso ocorre porque os modelos de AI/ML podem nunca ter visto esse tipo de mudança nos recursos que são usados ​​para treiná-los. Todo engenheiro de plataforma de IA está totalmente ciente disso”.

Isso não significa que os modelos de IA estejam errados ou defeituosos, apontou Sharma, mas implica que eles precisam ser continuamente treinados com novos dados e cenários. Também precisamos entender e lidar com os limites dos sistemas de IA que implantamos em empresas e organizações.

Sharma descreveu, por exemplo, uma IA que classifica os pedidos de crédito como “Crédito Bom” ou “Crédito Ruim” e repassa a classificação para outro sistema automatizado que aprova ou rejeita os pedidos. “Se, devido a algumas situações (como esta pandemia), houver um aumento no número de candidatos com credenciais fracas”, disse Sharma, “os modelos podem ter um desafio em sua capacidade de avaliar com alta precisão”.

À medida que as corporações do mundo se voltam cada vez mais para soluções automatizadas baseadas em IA para decidir o destino de seus clientes humanos, mesmo quando funcionam conforme planejado, esses sistemas podem ter implicações devastadoras para aqueles que solicitam crédito. Nesse caso, entretanto, o sistema automatizado precisaria ser explicitamente ajustado para lidar com as novas regras, ou as decisões finais podem ser adiadas a um especialista humano para evitar que a organização acumule clientes de alto risco em seus registros.

“Nas atuais circunstâncias da pandemia, onde a precisão do modelo ou as recomendações não são mais verdadeiras, os processos automatizados podem precisar de um passo a mais, como um ser humano no circuito para a devida diligência adicional”, disse ele.

Cox, da IBM, acredita que, se conseguirmos integrar nosso próprio entendimento do mundo aos sistemas de IA, eles serão capazes de lidar com eventos cisne negro como o surto covid-19.

“Devemos construir sistemas que realmente modelem a estrutura causal do mundo, para que sejam capazes de lidar com um mundo em rápida mudança e resolver problemas de maneiras mais flexíveis”, disse ele.

O MIT-IBM Watson AI Lab, onde Cox trabalha, tem trabalhado em sistemas “neurossimbólicos” que unem o aprendizado profundo com técnicas simbólicas clássicas de IA. Na IA simbólica, os programadores humanos especificam explicitamente as regras e os detalhes do comportamento do sistema, em vez de treiná-lo com dados. A IA simbólica era dominante antes do surgimento do aprendizado profundo e é mais adequada para ambientes onde as regras são definidas. Por outro lado, falta a capacidade dos sistemas de aprendizado profundo em lidar com dados não estruturados, como imagens e documentos de texto.

“Devemos construir sistemas que realmente modelem a estrutura causal do mundo, de modo que sejam capazes de lidar com um mundo em rápida mudança e resolver problemas de maneiras mais flexíveis”.

A combinação de IA simbólica e aprendizado de máquina ajudou a criar “sistemas que podem aprender com o mundo, mas também usam lógica e raciocínio para resolver problemas”, disse Cox.

A IA neurossimbólica da IBM ainda está em fase de pesquisa e experimentação. A empresa está testando em vários domínios, incluindo o bancário.

Kureishy, da Teradata, apontou outro problema que assola a comunidade de IA: dados rotulados. A maioria dos sistemas de aprendizado de máquina é supervisionada, o que significa que antes que possam executar suas funções, eles precisam ser treinados em grandes quantidades de dados classificados por humanos. Conforme as condições mudam, os modelos de aprendizado de máquina precisam de novos dados rotulados para se ajustar a novas situações.

Kureishy sugeriu que o uso de “aprendizagem ativa” pode, até certo ponto, ajudar a resolver o problema. Em modelos de aprendizado ativo, os operadores humanos estão constantemente monitorando o desempenho de algoritmos de aprendizado de máquina e fornecendo novos dados rotulados em áreas onde seu desempenho começa a diminuir. “Essas atividades de aprendizagem ativa exigem tanto o contato humano no processo quanto alarmes para a intervenção humana para escolher quais dados precisam ser rotulados novamente, com base nas restrições de qualidade”, disse Kureishy.

Mas, à medida que os sistemas automatizados continuam a se expandir, os esforços humanos falham em atender à crescente demanda por dados rotulados. O surgimento de sistemas de aprendizagem profunda, ávidos por dados, deu origem a uma indústria multibilionária de classificação de dados, muitas vezes alimentada por “fábricas digitais” com trabalhadores mal pagos em países pobres. E a indústria ainda luta para criar dados classificados suficientes para manter os modelos de aprendizado de máquina atualizados. Precisaremos de sistemas de aprendizado profundo que possam aprender com novos dados com pouca ou nenhuma ajuda de humanos.

“Como os modelos de aprendizado supervisionado são mais comuns na empresa, eles precisam ser eficientes em termos de dados para que possam se adaptar muito mais rápido às mudanças de comportamento”, disse Kureishy. “Se continuarmos contando com humanos para fornecer dados rotulados, a adaptação da IA ​​a novas situações sempre será limitada pela rapidez com que os humanos podem fornecer esses rótulos”.

“Acho que a aprendizagem auto-supervisionada é o futuro. Isso é o que vai permitir que nossos sistemas de IA avancem para o próximo nível, talvez aprendam conhecimento básico suficiente sobre o mundo por meio da observação, para que algum tipo de bom senso possa surgir”.

Modelos de aprendizado profundo que precisam de pouco ou nenhum dado rotulado manualmente é uma área ativa da pesquisa de IA. Na Conferência AAAI do ano passado, o pioneiro do aprendizado profundo Yann LeCun discutiu o progresso no “aprendizado auto-supervisionado”, um tipo de algoritmo de aprendizado profundo que, como uma criança, pode explorar o mundo por si mesmo sem ser especificamente instruído em cada detalhe.

“Acho que a aprendizagem auto-supervisionada é o futuro. Isso é o que vai permitir que nossos sistemas de IA avancem para o próximo nível, talvez aprendam conhecimentos básicos suficientes sobre o mundo por meio da observação, de modo que algum tipo de bom senso possa surgir ”, disse LeCun em seu discurso na conferência.

Mas, como é a norma na indústria de IA, leva anos – senão décadas – antes que tais esforços se tornem produtos comercialmente viáveis. Nesse meio tempo, precisamos reconhecer e abraçar o poder e os limites atuais da IA.

“Esses não são os sistemas de TI estáticos”, diz Sharma. “As soluções de IA corporativa nunca estão prontas. Eles precisam de um treinamento constante. Eles são motores vivos que respiram assentados na infraestrutura. Seria errado presumir que você constrói uma plataforma de IA e depois vai embora”.

Ben Dickson é engenheiro de software, analista de tecnologia e fundador da TechTalks.