Inteligência Artificial

“O desenvolvimento integral da Inteligência Artificial pode implicar o fim da raça humana”, afirma Stephen Hawking.

A Inteligência Artificial (IA) constitui um tema muito controverso, uma vez que envolve questões relacionadas com a consciência e dilemas éticos, pois criar máquinas inteligentes implica construí-las com capacidade de raciocínio e conhecimento.

Para a compreensão deste tema é necessária uma contextualização, através da sua história, bem como uma concetualização de termos como “aprendizagem da máquina” (Machine Learning), passando também pelo fundamento dos algoritmos e das suas implicações no quotidiano da vida humana.

A Inteligência Artificial “sistematiza e automatiza tarefas intelectuais e, portanto, é potencialmente relevante para qualquer esfera da atividade intelectual humana. Nesse sentido, ela é um campo universal”, segundo o que Stuart Russell e Peter Norvig estabelecem na obra Inteligência Artificial.

Não existe ainda um diagrama de programação completo e fixo de Inteligência Artificial. No entanto, existem certas características gerais dadas como necessárias para um sistema de IA, entre as quais a capacidade de aprender e a capacidade de lidar com a incerteza e informação probabilística.

Relativamente a este tópico, Luís Alexandre, professor da unidade curricular de Inteligência Artificial, na Universidade da Beira Interior (UBI), esclarece o conceito de aprendizagem dos sistemas.

O termo Inteligência Artificial surgiu em 1956, no contexto da Conferência de Dartmouth. IA é um ramo da ciência dos computadores que se dedica à investigação e criação de hardware e software, tendo o objetivo de produzir resultados semelhantes aos da inteligência humana. Elaine Rich propõe que a Inteligência Artificial é o estudo de como fazer os computadores realizarem tarefas em que, no momento, as pessoas são melhores. Por sua vez, Robert Schalkoff diz que IA “é o campo de estudo que tenta explicar e igualar os comportamentos inteligentes dos computadores.”

Assim, a IA depende do estudo dos processos de pensamento e raciocínio humanos, sendo relativa à construção de estruturas cognitivas responsáveis pela formação da razão. Por ser o único animal racional, diz-se que o ser humano é o único ser inteligente. Existem, no entanto, estudos que atribuem o conceito de inteligência a outros animais e vegetais (inteligência irracional), consistindo esta na capacidade de adaptação de um ser vivo às circunstâncias do seu meio. É desta forma que se passa a utilizar este conceito para a máquina, definindo, então, uma inteligência de máquina.

Esta inteligência seria a sua capacidade genética de instrumento de solução de problemas. Por capacidade genética entenda-se todo o conhecimento embutido em nível de hardware, o que permite um determinado conjunto de estados possíveis de funcionamento através de programas. A inteligência da máquina seria, então, um tipo de inteligência construída pelo homem, portanto, uma Inteligência Artificial. Todavia, o conceito abarca mais do que a inteligência da máquina, pois pretende-se capacitar o computador de um comportamento inteligente.

Embora esta área seja estudada academicamente desde a década de 50, recentemente tem gerado maior interesse, devido ao surgimento de aplicações comerciais práticas e aos significativos avanços tecnológicos dos equipamentos computacionais ocorridos nas últimas duas décadas.

Tendo em conta o artigo Inteligência Artificial: Conceitos e Aplicações, de Dennis dos Santos Gomes, para a revista Olhar Científico, a IA é, então, um sistema que “pensa e atua como seres humanos” e “que pensa e atua racionalmente”.


Apesar de ter este contexto prático e atual, o conceito de Inteligência Artificial remonta a questões filosóficas que surgiram, primeiramente, no século XVIII.

Racionalistas acreditam que os sentidos são enganadores e que o único caminho certo para o conhecimento é o raciocínio lógico. Por sua vez, Empiristas acreditam que a racionalização é falível e que o conhecimento deve ser apreendido através da observação e da experiência.

David Hume, filósofo empirista, considerado o Santo Patrono dos Simbolistas, questionou: “How can we ever be justified in generalizing from what we’ve seen to what we haven’t?” E no fundo, todos os algoritmos de aprendizagem são uma tentativa para responder a esta questão.

Os Filósofos têm debatido este problema da indução desde que Hume o colocou, mas ainda não há uma resposta satisfatória. O ideal seria ignorar esta questão filosófica, porém não se pode fugir dela.

Cerca de 250 anos após David Hume lançar o problema da indução, David Wolpert, físico que mais tarde se tornou machine learner, deu-lhe uma elegante forma matemática, o teorema “não há almoços grátis”, que estabeleceu um limite para o quão bom um learner pode ser. Esse limite é muito baixo: nenhum learner pode ser melhor do que adivinhar aleatoriamente.

Se soubermos algo acerca do mundo e o incorporarmos no nosso learner, este passa a ter uma vantagem relativamente ao método da adivinha aleatória. A isto, Hume responderia que o conhecimento deve provir da indução e por esse motivo, é falível. E isso é verdade, mesmo que o conhecimento tenha sido codificado no nosso cérebro pela evolução, no entanto é um risco que temos que correr.

A consequência prática do teorema “não há almoços grátis” é a de que não há nada como aprender sem conhecimento, pois informação isolada não é conhecimento. Em Machine Learning, noções pré-concebidas são indispensáveis, tal como o são à cognição humana, pois consiste naquilo a que os matemáticos denominam um “problema mal conjugado”, que não tem uma única solução.

Aristóteles dizia que não havia nada no intelecto que não tivesse estado antes nos sentidos. Leibniz acrescentou “excepto o próprio intelecto”. O cérebro em branco não consiste numa tábua rasa porque não é uma tábua. As tábuas são passivas, já o nosso cérebro consegue processar a informação que recebe e insere-a na memória, um processo que começa instantaneamente. Por outro lado, um computador é uma tábua rasa até ser programado. O objetivo é perceber qual o programa mais simples que podemos desenvolver, de forma a ele também se desenvolver por conta própria, analisando informação, sem limite, até que saiba tudo o que há para saber.

Na obra Principia, em conjunto com as três leis físicas do movimento, Newton enunciou quatro regras da indução, igualmente importantes, apesar de menos conhecidas. A chave é a terceira: “Whatever is true of everything we’ve seen is true of everything in the universe.” As leis de Newton aplicam-se a todos os espectros de matéria do universo. Sem ele, não haveria leis da natureza, apenas uma infinidade incompleta de pequenas regularidades.

É neste princípio de Newton que consiste a primeira regra de Machine Learning: induzir as regras mais abrangentes. Inicialmente pode parecer um excesso de confiança ridículo, porém este método tem resultado para a ciência desde há 300 anos.

O estudo da Inteligência Artificial não é exclusivo da nossa era, apesar de ser uma das ciências mais recentes. Angela Daniele Gongora, no artigo O que é a Inteligência Artificial?, publicado no portal E-Gov, dedicou-se a historiografar esta ciência.

A sua história inicia-se nos anos 40, a propósito do funcionamento cerebral. Procuravam-se, novas alternativas de utilização do computador, ainda em projeto. Porém, com o decorrer dos anos, foram sendo distinguidas duas linhas de pesquisa: uma biológica, calcada em torno do funcionamento do cérebro e dos neurónios; e outra, fruto do estudo da cognição, do raciocínio.

Aquando da II Guerra Mundial experiencia-se a necessidade do avanço tecnológico para fornecer mais instrumentos no combate bélico. O dinheiro de pesquisas científicas está à disposição dos cientistas, que se preocupam em desenvolver a mecanização da morte pelo poder tecnológico. A arma mais eficaz era a bomba atómica e para precisar o seu cálculo foi desenvolvido o computador.

Pelos anos 50 iniciou-se o estudo, na linha de pesquisa psicológica, da utilização da lógica de estratégia para finalidades matemáticas, como a prova de teoremas. A introdução da programação através de comandos de lógica de predicados proporcionou um grande avanço na programação de sistemas que utilizassem esquemas de raciocínio.

Relativamente à linha biológica, implementaram-se o primeiro simulador de redes neurais artificiais e o primeiro neurocomputador. Já nos anos 60 prosseguiram-se os desenvolvimentos de conceitos relativos às redes neurais artificiais, tendo sido descoberta a Inteligência Artificial no âmbito da Psicologia, pois acreditava-se ser possível a reprodução pura e simples do raciocínio humano no computador. Obviamente, a linguagem humana não é fruto apenas da razão, mas também da componente sensorial e lógica.

Na década de 70 estabeleceram-se novas conceções de redes neurais artificiais, que analisavam a aprendizagem das informações como resultante das potencialidades da interação de redes de neurónios.

Relativamente à IA tradicional, nos anos 80, ampliavam-se as técnicas e aplicações dos sistemas especialistas. Além disso, houve o interesse de trabalho conjunto com outras áreas, tais como interfaces inteligentes, sistemas de apoio à decisão, controlo de robots, etc.

Na década de 90, as redes neurais sofreram uma explosão exponencial de aplicações e desenvolvimento de modelos. A partir daí, consolidam-se as redes neurais como parte integrante do estudo da Inteligência Artificial propriamente dita. Reconhece-se, também, que os paradigmas biológico e psicológico são complementares e necessários para sistemas mais evoluídos e, desta forma, começam a ser construídos os Sistemas Híbridos.

Alan Turing foi um matemático inglês que desenvolveu um teste cujo objetivo era identificar a existência de Inteligência Artificial, ou seja, qualquer computador que passasse nesse teste deveria ser considerado inteligente, o que implica o reconhecimento de estados cognitivos humanos em computadores.

O teste de Turing foi criticado por John Searle, um filósofo norte-americano, que afirmou que a mente não é um programa de computador, tendo-se oposto à perspetiva de que um computador apropriadamente programado e que passe no teste de Turing, será necessariamente detentor de uma mente. Searle defende que um computador apropriadamente programado pode simular processos mentais e auxiliar na compreensão da mente, no entanto isso não significa que ele próprio tenha mente, mesmo passando no teste de Turing. Para este filósofo, as simulações computacionais não podem ser confundidas com a realidade, pois uma simulação de uma mente humana não é, na realidade, uma mente humana.

Portanto, segundo Luís Alexandre, “já existem algoritmos que passaram no teste de Turing”, contudo questiona-se se o teste de Turing será o mais adequado para medir a inteligência de um sistema. “Atualmente, a resposta é não. Hoje em dia o que as pessoas estão a utilizar para testar se um algoritmo já adquiriu um certo nível de inteligência são testes ainda mais simples do ponto de vista do seu enunciado, mas aos quais é muito difícil de responder.”

O quarto chinês consiste num argumento de John Searle que visa findar a equiparação de um cérebro humano com um computador e que tem por base a ideia de sintaxe (gramática), não garantindo a existência de semântica (significação).

Este filósofo defende que “a razão por que nenhum programa de computador pode alguma vez ser uma mente é simplesmente porque um programa de computador é apenas sintático, e as mentes são mais do que sintáticas. As mentes são semânticas, no sentido de que possuem mais do que uma estrutura formal, têm um conteúdo.”

Searle questiona: se a pessoa que está dentro do quarto não compreende chinês, como pode um computador implementar o mesmo programa para compreender chinês? O computador não tem mais capacidades do que essa pessoa, apenas é mais rápido a executar a mesma tarefa.

Este foi, provavelmente, o argumento filosófico mais debatido nas ciências cognitivas nas últimas três décadas.

Um projeto que controle a superinteligência tem acesso a uma ótima fonte de poder e, provavelmente, teria uma vantagem estratégica decisiva. Contudo, o locus mais imediato do poder está no próprio sistema.

Uma máquina com superinteligência pode ser, na sua essência, um agente extremamente poderoso, que poderia afirmar-se, com sucesso, contra o projeto que o levou à existência, assim como contra o resto do mundo.

      1. Fase de “pré-crítica” à análise de resultados: a semente IA é suficientemente capaz de melhorar a sua própria inteligência. Num estádio inicial, depende da ajuda de programadores humanos, como cientistas, contudo à medida que cresce, torna-se cada vez mais capaz de fazer trabalho autónomo.

      2. Fase de auto-aperfeiçoamento recursivo: em algum momento, a amadurecida semente IA torna-se melhor no seu próprio design do que os programadores humanos dando-se uma explosão de inteligência - uma rápida cascata de ciclos de auto-melhoria recursiva leva a capacidade da IA a subir. No final desta fase o sistema está fortemente superinteligente.

      3. Fase de preparação secreta: período de ação secreta durante o qual a IA oculta a sua intelectualidade e onde se dá o desenvolvimento dos programadores humanos. A IA também pode estar a esconder as suas verdadeiras tendências, fingindo ser cooperativa e inofensiva.

Neste momento, a IA pode obter resultados fora do domínio virtual, vindo, quiçá, a beneficiar do seu hacking para assumir o controlo direto da robótica manipuladora e dos laboratórios automatizados.

O futuro da IA depende do desenvolvimento da tecnologia em larga escala, como proliferação de sensores conetados na Web, drones militares e civis, automatização em laboratórios de pesquisa e plantas manufaturadas, dependência de sistemas de pagamento eletrónico e ativos financeiros digitais, uso de sistemas automatizados de filtragem de informações e sistemas de suporte à decisão.

“O facto de existirem muitos caminhos que possibilitam a chegada à Superinteligência devia aumentar a nossa confiança de que vamos, eventualmente, lá chegar. Mesmo que um caminho esteja bloqueado, pode-se sempre progredir através de outro”, de acordo com Nick Bostrom.

O caminho que, atualmente, se segue é baseado em sequências algorítmicas e no aprofundamento da aprendizagem das máquinas, ou Machine Learning.

Um algoritmo é uma sequência de instruções que informa um computador sobre o que fazer. Nos dias de hoje, os algoritmos estão em todos os recantos da civilização, constituindo uma peça fundamental na vida quotidiana. Não estão apenas inseridos no telemóvel ou no portátil, mas também no carro, em casa, numa variedade enorme de aparelhos e, também, em brinquedos. Algoritmos agendam voos e depois são os próprios a pilotá-los; executam fábricas; comercializam e encaminham mercadorias; cobram os lucros e mantêm registos. Se todos os algoritmos, de repente parassem de funcionar, seria o fim do mundo tal como o conhecemos.

Para Pedro Domingos, Machine Learning consiste num tipo de alquimia, transmutação de informação para conhecimento com ajuda de uma “pedra filosofal”, que é, para os simbolistas, o próprio conhecimento.

Computadores são o bem mais complexo alguma vez inventado. Na agricultura, plantam-se as sementes, garante-se que elas têm água e nutrientes suficientes, e colhe-se o que da terra brotou. Por que é que a tecnologia não se poderia assemelhar mais a isto? Podia, aliás essa é a promessa das Machine Learning. Aprender algoritmos remete para as sementes, os dados são o solo, e os programas aprendidos são as plantas crescidas. Os especialistas em Machine Learning são uma espécie de agricultores, responsáveis por semear as sementes, regar e fertilizar os campos, e por deitar o olho às colheitas.

A tese do livro The Master Algorithm, de Pedro Domingos, é: todo o conhecimento - do passado, do presente, e do futuro - pode ser derivado dos dados por um único e universal algoritmo aprendiz.

O negócio da Google, por exemplo, baseia-se no facto de adivinhar quais as páginas Web que procuramos quando digitalizamos certas palavras-chave na barra de procura.

Assumir que o futuro será como o passado é uma assunção arriscada. Por outro lado, se não o fizermos todo o conhecimento se torna impossível, tal como a vida. E é nisso que se baseia o problema do Machine Learning: generalizar para casos que ainda não vimos.

Nos primeiros dias da IA, Machine Learning parecia a parte mais óbvia dos computadores com o aspeto da inteligência humana, mas rapidamente as Machine Learning começaram a sua ascensão, inicialmente nem se deu por ela, contudo depois fez-se soar uma enorme onda de dados.

Minsky, considerado por Isaac Asimov como um dos únicos homens cujo intelecto superava o seu, foi um apoiante efusivo do projeto CYC, o falhanço mais notável na história da IA, pois “dados não podem substituir a intuição humana.”

Crê-se que só quando as Machine Learning tiverem aptidões para estar na base de tratamentos para o cancro é que este poderá ser curado. Já na Hod Lipson’s Creative Machines Labat Cornell University, robots estão a ser ensinados a ser combativos. O mecanismo analisado está a passar por uma evolução, sendo essa comparação baseada nos seres vivos.

Há alguma forma de aprender algo sobre o passado, que possamos confiantemente aplicar no futuro? Se não houver, é o Machine Learnig um empreendimento sem esperança?

O principal objetivo é perceber como é que a aprendizagem automática pode tornar-se flexível e resolver diferentes problemas, ao mesmo tempo que desenvolve a sua capacidade de aprender.

O “meta learning”, como seria chamado o processo, seria então um método de aprendizagem que pudesse assimilar qualquer coisa. Este algoritmo poderia então aprender, selecionar, alterar e combinar diferentes métodos de aprendizagem para resolver um problema de forma efetiva.

“A companhia Narrative Science tem um sistema IA que consegue escrever resumos de jogos de basebol”, porém não lhe é possível escrever novelas, porque lhe falta experiência de vida.

Mas como é que se lida com a falta de criatividade, se mesmo os humanos têm brancas e dificuldade em inventar novas ideias?

(criatividade e experiência de vida do professor)

Então, para resolver problemas e alcançar a flexibilidade de raciocínio pretendida, as máquinas precisam de ser inteligentes. Para isso, é necessário compreender o papel do conceito de inteligência, tanto humana quanto artificial.

A inteligência consiste num conjunto de funções inatas que se desenvolvem no decorrer da vida e que possibilitam a sua adaptação ao meio envolvente. São componentes como a memória, o raciocínio, a linguagem e as emoções que integram a inteligência humana e que promovem a autonomia e aptidão para sobreviver.

Tanto a Informática como a Psicologia Cognitiva estão na base da IA, que tem por finalidade reproduzir atividades humanas consideradas inteligentes através de máquinas, nomeadamente computadores. Tal como a inteligência humana, a Inteligência Artificial dispõe de memória, linguagem e raciocínio lógico, no entanto ainda lhe falta um componente fulcral, a emoção.

Visto que a emoção é o principal fundamento da inteligência humana, cada vez se fala mais de Q.E. (coeficiente emocional) e menos de Q.I. (coeficiente de inteligência). No âmbito da Psicologia, a capacidade adaptativa do ser humano é medida pela inteligência e pela emoção. Caso um indivíduo seja demasiado racional, a sua adaptação ao meio social torna-se difícil, uma vez que todos os seus comportamentos estarão sujeitos a uma avaliação lógica. No entanto, a adaptação social de um indivíduo extremamente emocional passa pela sobreposição dos sentimentos face à razão, tornando-o mais frágil.

Então, uma pessoa inteligente deve ser capaz de se adaptar a qualquer meio ambiente ou situação, articulando a dosagem certa de razão e emoção.

A Inteligência Artificial aproxima-se a passos largos da razão humana, porém continua muito afastada da emoção humana e, por isto, depreende-se o quão difícil será atingir a emoção artificial.

As semelhanças entre a vida artificial e a vida humana são estudadas no domínio da Robótica.

Com o objetivo de transformar o automático em autónomo, o desenvolvimento da Robótica no campo da Inteligência Artificial procura alcançar uma geração capaz de tomar decisões em concordância com a circunstância, a fim de conceber o robot ideal.

A palavra “robot” deriva do vocábulo “robota” que significa “trabalho escravo”, denominação esta que se deve ao aparecimento dos primeiros mecanismos industriais, os robots de primeira geração, que se limitavam a realizar tarefas simples e repetitivas, por imitação.

O robot perfeito ainda só existe em teoria, mas é idealizado como sendo um agente inteligente capaz de agir em conformidade com instruções predefinidas, de modo a executar tarefas que exijam raciocínio. Este robot seria dotado de capacidade introspetiva, de conhecimento generalizado sobre o mundo, bem como de conhecimento específico referente a determinadas áreas e seria orientado por princípios racionais na sua tomada de decisão. Este tipo de inteligência deve conseguir analisar a tarefa, ponderar soluções, planear como solucioná-la e testar a respetiva solução, funcionando no mundo real, em tempo real e avaliando quais as ações benéficas, ou não, para atingir certo objetivo, tal como os humanos.

Na prática, os grandes computadores atuais conseguem processar bilhões de cálculos em segundos, porém não conseguem interpretar piadas nem lidar com a informação espontânea proveniente da natureza, uma vez que apenas possuem sensores e não sentidos ou emoções.

No ser humano, quando se trata o tema da emoção, aplica-se a teoria dos três F’s (fight, flight, freeze), ou seja, perante um estímulo externo, e em consequência da reação imanente ao instinto, o Homem luta, foge ou permanece imóvel. Já os robots ainda são incapazes de reagir por instinto ou desencadear emoções.

Arquitetura de Aceitação e Competição de Comportamentos são teorias que se aproximam à eventual capacidade de uma máquina se emocionar e relacionar com os humanos.

Assim, a emoção nos robots é um aspeto latente e que se resume a uma espécie de instinto programado, apesar de estarem cada vez mais aptos para interagir com o ser humano e para acompanhá-lo no mundo real em tempo real.

Em conformidade com o artigo Inteligência Artificial na educação universitária: quais as contribuições?, de Eliane Pozzebon, Luciana Bolan Frigo e Guilherme Bittencourt, a IA pode contribuir para uma maior diversidade no Ensino, tendo em conta o auxílio em termos pedagógicos, interessando, neste momento, a origem dos Sistemas Tutores Inteligentes (STI), que podem consistir em poderosas ferramentas auxiliares no ensino-aprendizagem.

Quando se desenvolveram os primeiros computadores, pensou-se em utilizá-los como um instrumento de aprendizagem, recorrendo-se a Sistemas de Instrução Assistida por Computador. Os seus defeitos baseiam-se no facto de não ser possível aplicar este método a personalidades e características diferentes, para além de ser pobre em conteúdos pedagógicos. Os STI apreendiam as características dos seus utilizadores, tornando o sistema mais fácil de manusear.

O MathTutor é um STI, desenvolvido na Universidade Federal de Santa Catarina, baseado na arquitetura multiagentes do ambiente MATHEMA, cujo princípio é a integração de entidades humanas e artificiais com o objetivo de proporcionar uma interação cooperativa. O sistema é formado por uma sociedade estruturada de agentes que cooperam entre si, através de linguagens e protocolos estabelecidos. Um agente toma decisões quanto à necessidade de cooperação com outros agentes, baseado no seu estado de conhecimento em relação a uma determinada tarefa.

Os modelos que a IA usa acabam por conseguir proporcionar um maior conhecimento da comunicação, devido à flexibilidade do seu sistema. A IA poderá vir a ser um instrumento auxiliar da educação, pois tornaria as aulas mais dinâmicas e guardaria os conteúdos lecionados.

Logo, “os benefícios da IA abrangem a sociedade como um todo, pois com o ensino à distância este conhecimento não se restringe ao ambiente universitário.”

Em 2014, o cientista Stephen Hawking disse temer que a inteligência artificial evolua mais rápido do que os seres humanos, que são limitados pela biologia, o que pode ser uma realidade assustadora e significativa atualmente.

Até 1950, na literatura, os robots eram considerados apenas monstros, com grande probabilidade de se voltarem contra os seus criadores. Isaac Asimov veio contradizer esta ideia no seu livro I, Robot, em português Eu, Robot, antecipando a complexidade de seres artificiais – que passam a exibir características contraditórias entre si. A partir de casos particulares, Asimov desenha um futuro onde máquinas tomam as suas próprias decisões, e a vida dos humanos é inviável sem a ajuda de seres autómatos.

O livro também se tornou um clássico porque enumera as Três Leis da Robótica:

      1) um robot não pode ferir ou permitir que um humano seja prejudicado;

      2) os robots devem obedecer às ordens dos humanos, exceto nos casos em que estas entrem em conflito com a primeira lei;

      3) um robot deve proteger sua própria existência, desde que sejam salvaguardadas as leis supracitadas.

Estas regras têm como finalidade manter a paz entre seres autómatos e biológicos, impedindo rebeliões, e são até hoje respeitadas pelos pesquisadores de Inteligência Artificial. Com a publicação deste livro, a ficção científica deixou de ser só fantasia, tendo entrado no campo da discussão ética sobre a nossa relação com a tecnologia.

Na edição de 2017 da Web Summit, realizada em Portugal, foi apresentado o robot Sophia, cujo principal criador, David Hanson, em colaboração com os restantes membros da sua empresa, sediada em Hong Kong, desenvolveu uma Inteligência Artificial capaz de falar inglês, fazer piadas e manter uma conversa razoavelmente inteligente.

Quanto à cidadania do robot, vários professores e investigadores, da área da IA, afirmam-se contra, insistindo que a tecnologia e a sociedade ainda não estão preparadas para tamanho avanço. Assim, Luís Alexandre manifesta-se dizendo que, no seu entender, Sophia constitui uma manobra de marketing.

A Moral Rightness (MR) consiste na moralidade programada para o dispositivo tecnológico saber o que fazer em várias ocasiões. Acontece que a moralidade sempre foi algo incerta e difícil de explicar. Nisto, Nick Bostrom, no livro intitulado Superintelligence, refere que “um dos caminhos para a MR é desenvolver a capacidade linguística. Se isso acontecer será mais fácil perceber a moralidade.”

Neste momento, as máquinas encontram-se, ao nível da inteligência geral, muito inferiores ao ser humano. Mas um dia elas vão ser superinteligentes.

Para Pedro Domingos “se os computadores não tivessem sido inventados, a ciência poderia ter parado na segunda metade do século XX. Isto poderia não ter sido logo imediato para os cientistas porque eles manter-se-iam focados em qualquer processo limitado que ainda conseguiriam fazer, mas o auge desse progresso teria sido muito, muito abaixo.”

Segundo a Forbes, 2018 será o ano em que a Inteligência Artificial vai exercer, progressivamente, uma influência mais notória na nossa forma de trabalhar. Porém, a sua atratividade acarreta, como consequência, uma permanente monitorização, uma vez que é aí que reside o seu perigo.

Com o avanço tecnológico, algumas profissões vão deixar de existir, ao contrário de outras que requerem experiência de vida humana. Contudo, “ainda estamos a anos de distância até que a IA substitua totalmente os empregos dos humanos.”

Um dia haverá um robot em cada casa, a fazer as camas, a cozinhar, a cuidar das crianças enquanto os pais trabalham. Quão cedo isto acontecerá, depende do quão difícil for encontrar e transformar o Algoritmo Mestre.

Será que, no fundo, o Homem procura desenvolver um agente que esteja sempre pronto a substituí-lo em tarefas complexas e repetitivas, provido de subjetividade?

Ou será que a Humanidade teme o domínio absoluto das máquinas sobre os seres vivos e naturais?

Inteligência Artificial
  1. Section 1
  2. Section 2
  3. O que é a Inteligência Artificial?
  4. Método Indutivo, David Hume
  5. Teorema: “não há almoços grátis”
  6. Breve História da IA
  7. Teste de Turing
  8. Quarto Chinês
  9. Um salto para a Superinteligência
  10. Algoritmos e Machine Learning
  11. Machine Learners
  12. Inteligência humana e inteligência artificial
  13. O Robot
  14. A emoção
  15. IA na Educação
  16. Eu, Robot, de Isaac Asimov
  17. Robot Sophia
  18. E no futuro?