Parte 1: Inteligência Artificial – Inimiga ou Aliada?

por | 4 mar 2022 | Inteligência Artificial

Parte 1 – Visão Histórica

No primeiro artigo da série você encontrará uma visão histórica da Inteligência Artificial no mundo.


Esta é uma série de 3 artigos. Caso queira ler o conteúdo completo em pdf, faça o download aqui.


A supremacia da inteligência biológica está mesmo sendo ameaçada?

As aptidões inatas de raciocinar, discernir, planejar, intuir, imaginar, entre outras capacidades não lógicas funcionam como um complexo mecanismo de sobrevivência, o qual a partir das mais variadas situações cotidianas, os portadores desta sofisticada inteligência podem realizar escolhas e ponderar sua interpretação e ação em determinados cenários. Essa simplificação conceitual parece já ser suficientemente suprema, porém uma pretenciosa desafiante vem sendo incitada a abalar o reinado da biologia. Será, mesmo?

Sintetizar a inteligência humana é realmente muita presunção, mas vamos reconhecer que o empenho na aplicação de conceitos e técnicas de engenharia para tentar entender como o cérebro humano funciona, quiçá simular “rusticamente”, isso já é nobre e útil, além de ser instigante.

Por volta de 1950, entre outros, Alan Turing, conhecido como “o pai da informática” já falava sobre a criação de um cérebro artificial, uma inteligência de base computacional, a qual fosse possível reproduzir a mecânica de um pensamento. Há controvérsias, mas no geral é bem aceito que a IA passou a ganhar uma audiência qualificada desde então. Não exatamente em 1950, mas conceitualmente, redes neurais artificiais e aprendizado de máquina (machine learning-ML) são velhos conhecidos e claro foram se sofisticando ao longo do tempo. Porém, é relevante mencionar que estas iniciativas foram se mostrando inviáveis até perto do final do século passado, apesar da expectativa ter sido muito alta no início, nem tudo era tão concreto, rápido e barato de se reproduzir. Eram necessários muitos dados (incomum para a época), assim como hardware e softwares “poderosos”. Depois desse “inverno da IA” que durou décadas, a tal inteligência artificial ressuscitou por volta dos anos 80 com alguns experimentos pouco impactantes para as aplicações da época, mas surpreendia pela novidade em reproduzir computacionalmente, algo que um humano não seria capaz de fazer melhor. E foi em 1997, de forma emblemática que a máquina Deep Blue da IBM derrotou o campeão soviético Kasparov, até então imbatível no xadrez. Por um bom tempo, isso foi notícia no mundo todo, ficava claro que a computação ainda nos apresentaria outras aplicações impressionantes, mas tudo muito vago.

De 2010 em diante, a IA foi se mostrando não apenas “hype” (moda tecnológica). Em 2016, mais um evento emblemático, o programa AlphaGo da Google DeepMind derrotou o mestre sul-coreano Lee Se-dol no jogo de tabuleiro Go – considerado um dos jogos mais complexos de todos os tempos. Uma sequência de acontecimentos promissores envolvendo IA, fizeram com que grandes empresas de tecnologia passassem a investir tempo e dinheiro para validar a crença de que algo disruptivo pudesse realmente acontecer a partir de algoritmos combinados com estatística para aprender com dados históricos.

Ainda que nem todos definam exatamente da mesma forma, uma maioria acadêmica considera, Machine Learning (ML) um subgrupo de IA, essa é uma visão pertinente e quando falamos em aprendizado de máquina, o protagonismo não está mais atribuído aquela infinidade de linhas de código, algo trivial nos sistemas tradicionais que tentam prever tudo que pode acontecer (front-end e back-end) e predeterminar o comportamento do sistema diante de cada situação. O cerne dos sistemas de ML não é este, é aprender com dados históricos, procurar encontrar um padrão no comportamento dos dados usando modelos estatísticos e oferecer como resultado, probabilidades ou rótulos para cada nova situação que seja apresentada.

Assim como, o ML é um subgrupo de IA, o Deep Learning (aprendizagem profunda), seria um subgrupo do ML. Este nome foi adotado justamente por ser um método que simula/imita uma rede neural biológica. Suas principais aplicações estão relacionadas ao manuseio de dados não-estruturados e não-rotulados, comumente aplicáveis para identificação facial, reconhecimento de fala, textos, recomendação personalizada de um produto ou serviço, etc.

Sobre o Autor

Carlos Eduardo Lamon

Arquiteto de Soluções para Automação de Processos Analíticos na RED Innovations