Em 1950, Alan Turing criou um programa de computador de xadrez que pré-configurou a I.A.

Em 1950, Alan Turing criou um programa de computador de xadrez que pré-configurou a I.A.

O xadrez é um dos jogos de estratégia e análise mais antigos e mais respeitados do mundo. É um jogo tão complexo que alguns passam a vida inteira tentando dominá-lo. Quase 60 anos atrás, um novo jogador entrou no jogo - movido não pela inteligência e dedicação humana, mas por linhas de código no papel, escritas pelo cientista da computação Alan Turing.

O computador mais conhecido para jogar xadrez é o Deep Blue da IBM, que enfrentou o grande mestre russo Garry Kasparov em uma série de partidas muito divulgada em fevereiro de 1996. No entanto, o Deep Blue não foi o primeiro computador programado para xadrez. Essa distinta honra vai para um algoritmo chamado “Turbochamp”, que foi escrito pelo famoso cientista da computação, matemático e criptanalista britânico Alan Turing no final dos anos 1940.

Conhecido por muitos historiadores como o “pai da ciência da computação”, Turing fez seu nome pela primeira vez quando aperfeiçoou o Bombe - um dispositivo mecânico usado pela inteligência britânica para decifrar mensagens criptografadas enviadas pela máquina alemã Enigma durante a Segunda Guerra Mundial. As conquistas de Turing são consideradas um ponto de viragem da guerra.

Turing continuou seu trabalho no campo da ciência da computação, até mesmo trabalhando com formas primitivas de inteligência artificial. Seu trabalho com a A.I. rapidamente o levou a enfrentar o xadrez, que ele viu como uma forma de testar a verdadeira coragem de um cérebro artificial. (O termo "I.A." não foi cunhado até 1956, dois anos após a morte prematura de Turing).

Turing começou a trabalhar em seu algoritmo em 1948, antes que os computadores fossem capazes de executar cálculos complexos. Ainda assim, Turing continuou e terminou seu código em 1950. O algoritmo era rudimentar. Sua lógica baseava-se em apenas algumas das regras mais básicas do xadrez, e ele só era capaz de “pensar” com dois lances de antecedência. Para colocar isso em contexto, Garry Kasparov, que é considerado um dos melhores jogadores do mundo, afirmou que normalmente calcula três a cinco jogadas à frente, mas pode prever até 12 ou 14 jogadas, dependendo da situação.

Depois que o código foi escrito, Turing começou a testá-lo em um computador que funcionasse. Depois de tentativas fracassadas de implementar o algoritmo usando o Ferranti Mark I - o primeiro computador de uso geral disponível comercialmente do mundo - em 1951, Turing decidiu demonstrar as capacidades do algoritmo sem usar um computador.

Ele desafiou seu amigo e colega Alick Glennie, com a ressalva de que Turing jogaria o jogo usando uma versão impressa em papel de seu código. Quando era a vez de Turing fazer um movimento, ele consultava o algoritmo e usava sua "lógica" para decidir quais peças mover e onde. Como ele precisava analisar cada movimento como seu programa faria, Turing levava mais de 30 minutos para trabalhar a estratégia toda vez que chegava sua vez. “Turbochamp“ mostrou que era totalmente capaz de jogar contra um humano no xadrez - mas não vencer. Glennie derrotou Turing em apenas 29 movimentos.

Turing nunca chegou a ver seu programa executado por um computador real. Ele morreu de envenenamento por cianeto em 1954 - duas semanas antes do que teria sido seu 42º aniversário. Turing foi processado e castrado quimicamente, devido ao seu relacionamento com outro homem em 1952. Os triunfos de Turing durante a guerra e as primeiras realizações da inteligência artificial caíram no esquecimento. O governo britânico não desclassificou o trabalho de Turing e seus colegas de Bletchley Park até a década de 1970, e o próprio registro de Turing sobre a quebra do código Enigma não foi publicado até a década de 1990.

VÍDEO: Garry Kasparov interpreta “Turbochamp” de Turing

Em junho de 2012, como parte da Conferência do Centenário Alan Turing da Universidade de Manchester, "Turbochamp" finalmente teve a chance de provar sua perspicácia na frente do mundo. O oponente do algoritmo naquele dia? Garry Kasparov, é claro.

O pequeno programa de 1950 não foi páreo para o grande mestre russo, que venceu o "Deep Blue" da IBM em 1966, mas depois perdeu para um supercomputador IBM em 1997. O homem que muitos pensam ser o maior jogador de xadrez de todos os tempos enxugou o chão com Turbochamp em apenas 16 movimentos. Posteriormente, o vitorioso Kasparov prestou homenagem ao lendário programador, declarando: "Suponho que você possa chamá-lo de primitivo, mas eu o compararia a um carro antigo - você pode rir deles, mas ainda é uma conquista incrível."

“[Turing] escreveu algoritmos sem ter um computador - muitos jovens cientistas nunca acreditariam que isso fosse possível. Foi uma conquista notável. ”


Alan Turing: O experimento que moldou a inteligência artificial

O pioneiro da computação e teórico da inteligência artificial (IA) Alan Turing completaria 100 anos neste sábado. Para marcar o aniversário, a BBC encomendou uma série de ensaios. Neste, o quarto artigo, sua influência na pesquisa de IA e a controvérsia resultante são exploradas.

Alan Turing era claramente um homem à frente de seu tempo. Em 1950, no alvorecer da computação, ele já estava se debatendo com a pergunta: & quotAs máquinas podem pensar? & Quot

Isso ocorreu em uma época em que os primeiros computadores de uso geral acabavam de ser construídos.

O termo inteligência artificial nem mesmo havia sido cunhado. John McCarthy surgiu com o termo em 1956, dois anos após a morte prematura de Alan Turing.

No entanto, suas idéias provaram ter uma profunda influência sobre o novo campo da IA ​​e causar um cisma entre seus praticantes.


Conteúdo

Fundo filosófico Editar

A questão de saber se é possível que as máquinas pensem tem uma longa história, que está firmemente arraigada na distinção entre as visões dualista e materialista da mente. René Descartes prefigura aspectos do teste de Turing em seu 1637 Discurso sobre o método quando ele escreve:

[H] ow muitos autômatos ou máquinas móveis diferentes podem ser feitos pela indústria do homem. Pois podemos compreender facilmente o fato de uma máquina ser constituída de modo que possa proferir palavras, e até mesmo emitir algumas respostas à ação sobre ela de tipo corpóreo, que provoca uma mudança em seus órgãos, por exemplo, se tocada em uma parte particular, ela pode perguntar o que desejamos dizer a ele se em outra parte ele pode exclamar que está sendo ferido, e assim por diante. Mas nunca acontece que ela arranja sua fala de várias maneiras, a fim de responder apropriadamente a tudo o que pode ser dito em sua presença, como até mesmo o tipo mais inferior de homem pode fazer. [10]

Aqui, Descartes observa que os autômatos são capazes de responder às interações humanas, mas argumenta que tais autômatos não podem responder apropriadamente às coisas ditas em sua presença da maneira que qualquer ser humano pode. Descartes, portanto, prefigura o teste de Turing definindo a insuficiência da resposta linguística apropriada como aquela que separa o humano do autômato. Descartes deixa de considerar a possibilidade de que futuros autômatos sejam capazes de superar tal insuficiência e, portanto, não propõe o teste de Turing como tal, mesmo que prefigura sua estrutura conceitual e critério.

Denis Diderot formula em seu Pensées philosophiques um critério do teste de Turing:

"Se eles encontrarem um papagaio que possa responder a tudo, eu diria que é um ser inteligente sem hesitação." [11]

Isso não significa que ele concorde com isso, mas que já era um argumento comum dos materialistas naquela época.

De acordo com o dualismo, a mente é não física (ou, pelo menos, tem propriedades não físicas) [12] e, portanto, não pode ser explicada em termos puramente físicos. De acordo com o materialismo, a mente pode ser explicada fisicamente, o que deixa aberta a possibilidade de mentes que são produzidas artificialmente. [13]

Em 1936, o filósofo Alfred Ayer considerou a questão filosófica padrão de outras mentes: como sabemos que outras pessoas têm as mesmas experiências conscientes que nós? Em seu livro, Linguagem, verdade e lógica, Ayer sugeriu um protocolo para distinguir entre um homem consciente e uma máquina inconsciente: "A única base que posso ter para afirmar que um objeto que parece ser consciente não é realmente um ser consciente, mas apenas um manequim ou uma máquina, é que falha em satisfazer um dos testes empíricos pelos quais a presença ou ausência de consciência é determinada. " [14] (Essa sugestão é muito semelhante ao teste de Turing, mas está preocupada com a consciência ao invés da inteligência. Além disso, não é certo que o clássico filosófico popular de Ayer fosse familiar para Turing.) Em outras palavras, uma coisa não é consciente se falha no teste de consciência.

Alan Turing Editar

Pesquisadores no Reino Unido haviam explorado a "inteligência de máquina" por até dez anos antes da fundação do campo da pesquisa de inteligência artificial (IA) em 1956. [15] Era um tópico comum entre os membros do Ratio Club, um grupo informal de pesquisadores britânicos de cibernética e eletrônica que incluía Alan Turing. [16]

Turing, em particular, vinha abordando a noção de inteligência de máquina desde pelo menos 1941 [17] e uma das primeiras menções conhecidas de "inteligência de computador" foi feita por ele em 1947. [18] No relatório de Turing, "Intelligent Machinery ", [19] ele investigou" a questão de se é ou não possível que uma máquina mostre um comportamento inteligente "[20] e, como parte dessa investigação, propôs o que pode ser considerado o precursor de seus testes posteriores:

Não é difícil conceber uma máquina de papel que jogue um jogo de xadrez não muito mau. [21] Agora pegue três homens como sujeitos do experimento. A, B e C. A e C devem ser jogadores de xadrez bastante ruins, B é o operador que opera a máquina de papel. . Duas salas são usadas com algum arranjo para a comunicação de movimentos, e um jogo é jogado entre C e A ou a máquina de papel. C pode achar muito difícil dizer qual ele está jogando. [22]

"Computing Machinery and Intelligence" (1950) foi o primeiro artigo publicado por Turing a focar exclusivamente em inteligência de máquina. Turing começa o artigo de 1950 com a afirmação: "Proponho considerar a questão 'As máquinas podem pensar?'" [5] Como ele destaca, a abordagem tradicional para tal questão é começar com definições, definindo ambos os termos "máquina" e "inteligência". Turing opta por não fazê-lo, em vez disso, ele substitui a pergunta por uma nova, "que está intimamente relacionada a ela e é expressa em palavras relativamente inequívocas". [5] Em essência, ele propõe mudar a questão de "As máquinas podem pensar?" para "As máquinas podem fazer o que nós (como entidades pensantes) podemos fazer?" [23] A vantagem da nova questão, argumenta Turing, é que ela traça "uma linha bastante nítida entre as capacidades físicas e intelectuais de um homem". [24]

Para demonstrar essa abordagem, Turing propõe um teste inspirado em um jogo de festa, conhecido como "jogo de imitação", no qual um homem e uma mulher vão para salas separadas e os convidados tentam diferenciá-los escrevendo uma série de perguntas e lendo à máquina. respostas enviadas de volta. Neste jogo, tanto o homem como a mulher procuram convencer os convidados de que são o outro. (Huma Shah argumenta que esta versão de dois humanos do jogo foi apresentada por Turing apenas para apresentar ao leitor o teste de pergunta-resposta de máquina humana. [25]) Turing descreveu sua nova versão do jogo da seguinte forma:

Agora fazemos a pergunta: "O que acontecerá quando uma máquina fizer o papel de A neste jogo?" O interrogador decidirá erroneamente com a mesma freqüência quando o jogo é jogado dessa forma ou quando o jogo é disputado entre um homem e uma mulher? Essas perguntas substituem nosso original, "As máquinas podem pensar?" [24]

Mais tarde no artigo, Turing sugere uma formulação alternativa "equivalente" envolvendo um juiz conversando apenas com um computador e um homem. [26] Embora nenhuma dessas formulações corresponda precisamente à versão do teste de Turing que é mais amplamente conhecido hoje, ele propôs um terceiro em 1952. Nesta versão, que Turing discutiu em uma transmissão de rádio da BBC, um júri faz perguntas a um computador e o papel do computador é fazer com que uma proporção significativa do júri acredite que ele é realmente um homem. [27]

O artigo de Turing considerou nove objeções putativas, que incluem todos os principais argumentos contra a inteligência artificial que foram levantados nos anos desde que o artigo foi publicado (ver "Computing Machinery and Intelligence"). [6]

ELIZA e PARRY Edit

Em 1966, Joseph Weizenbaum criou um programa que parecia passar no teste de Turing. O programa, conhecido como ELIZA, funcionava examinando os comentários digitados pelo usuário em busca de palavras-chave. Se uma palavra-chave for encontrada, uma regra que transforma os comentários do usuário é aplicada e a frase resultante é retornada. Se uma palavra-chave não for encontrada, ELIZA responde com uma resposta genérica ou repetindo um dos comentários anteriores. [28] Além disso, Weizenbaum desenvolveu ELIZA para replicar o comportamento de um psicoterapeuta rogeriano, permitindo que ELIZA fosse "livre para assumir a postura de não saber quase nada do mundo real". [29] Com essas técnicas, o programa de Weizenbaum foi capaz de enganar algumas pessoas fazendo-as acreditar que estavam falando com uma pessoa real, com alguns assuntos sendo "muito difíceis de convencer que ELIZA [.] É não humano. "[29] Assim, ELIZA é reivindicado por alguns como um dos programas (talvez o primeiro) capaz de passar no teste de Turing, [29] [30] embora esta visão seja altamente controversa (veja abaixo).

Kenneth Colby criou PARRY em 1972, um programa descrito como "ELIZA com atitude". [31] Ele tentou modelar o comportamento de um esquizofrênico paranóide, usando uma abordagem semelhante (embora mais avançada) àquela empregada por Weizenbaum. Para validar o trabalho, PARRY foi testado no início dos anos 1970 usando uma variação do teste de Turing. Um grupo de psiquiatras experientes analisou uma combinação de pacientes reais e computadores rodando PARRY por meio de teleimpressores. Outro grupo de 33 psiquiatras viu as transcrições das conversas. Os dois grupos foram então solicitados a identificar quais dos "pacientes" eram humanos e quais eram programas de computador. [32] Os psiquiatras foram capazes de fazer a identificação correta apenas 52 por cento das vezes - um número consistente com adivinhação aleatória. [32]

No século 21, as versões desses programas (agora conhecidos como "chatbots") continuam a enganar as pessoas. O "CyberLover", um programa de malware, ataca os usuários da Internet, convencendo-os a "revelar informações sobre suas identidades ou levá-los a visitar um site que fornecerá conteúdo malicioso aos seus computadores". [33] O programa surgiu como um "risco do Dia dos Namorados" flertando com pessoas "que buscam relacionamentos online para coletar seus dados pessoais". [34]

A sala chinesa Editar

Artigo de John Searle de 1980 Mentes, cérebros e programas propôs o experimento de pensamento da "sala chinesa" e argumentou que o teste de Turing não poderia ser usado para determinar se uma máquina pode pensar. Searle observou que softwares (como ELIZA) poderiam passar no teste de Turing simplesmente manipulando símbolos que eles não entendiam. Sem compreensão, eles não poderiam ser descritos como "pensando" no mesmo sentido que as pessoas. Portanto, conclui Searle, o teste de Turing não pode provar que uma máquina pode pensar. [35] Muito parecido com o próprio teste de Turing, o argumento de Searle foi amplamente criticado [36] e altamente endossado. [37]

Argumentos como o de Searle e outros que trabalham com a filosofia da mente geraram um debate mais intenso sobre a natureza da inteligência, a possibilidade de máquinas inteligentes e o valor do teste de Turing que continuou durante as décadas de 1980 e 1990. [38]

Edição do Prêmio Loebner

O Prêmio Loebner fornece uma plataforma anual para testes práticos de Turing com a primeira competição realizada em novembro de 1991. [39] É subscrito por Hugh Loebner. O Cambridge Center for Behavioral Studies em Massachusetts, Estados Unidos, organizou os prêmios até o concurso de 2003, inclusive. Como Loebner descreveu, um dos motivos pelos quais a competição foi criada é para avançar o estado da pesquisa de IA, pelo menos em parte, porque ninguém havia tomado medidas para implementar o teste de Turing, apesar de 40 anos discutindo-o. [40]

A primeira competição do Prêmio Loebner em 1991 levou a uma discussão renovada sobre a viabilidade do teste de Turing e o valor de buscá-lo, tanto na imprensa popular [41] quanto na academia. [42] O primeiro concurso foi vencido por um programa estúpido, sem inteligência identificável, que conseguiu enganar interrogadores ingênuos para fazer a identificação errada. Isso destacou várias das deficiências do teste de Turing (discutido abaixo): O vencedor venceu, pelo menos em parte, porque foi capaz de "imitar erros de digitação humanos" [41] os interrogadores não sofisticados foram facilmente enganados [42] e alguns pesquisadores em IA foram levados a sentir que o teste é apenas uma distração de pesquisas mais frutíferas. [43]

Os prêmios prata (somente texto) e ouro (áudio e visual) nunca foram ganhos. No entanto, a competição concedeu a medalha de bronze todos os anos para o sistema de computador que, na opinião dos juízes, demonstra o comportamento de conversação "mais humano" entre as inscrições daquele ano. Artificial Linguistic Internet Computer Entity (A.L.I.C.E.) ganhou o prêmio de bronze em três ocasiões nos últimos tempos (2000, 2001, 2004). Learning AI Jabberwacky venceu em 2005 e 2006.

O Prêmio Loebner testa os vencedores de inteligência de conversação normalmente são programas chatterbot ou Entidades de conversação artificiais (ACE) s. As regras do Primeiro Prêmio Loebner restringiam as conversas: cada entrada e humano oculto conversavam sobre um único tópico, [44] assim, os interrogadores eram restritos a uma linha de questionamento por interação de entidade. A regra de conversação restrita foi suspensa para o Prêmio Loebner de 1995. A duração da interação entre o juiz e a entidade tem variado nos prêmios Loebner. Em Loebner 2003, na Universidade de Surrey, cada interrogador tinha cinco minutos para interagir com uma entidade, máquina ou humano oculto. Entre 2004 e 2007, o tempo de interação permitido nos Prêmios Loebner era de mais de vinte minutos.

Saul Traiger argumenta que existem pelo menos três versões primárias do teste de Turing, duas das quais são oferecidas em "Computing Machinery and Intelligence" e uma que ele descreve como a "Interpretação Padrão".[45] Embora haja algum debate sobre se a "Interpretação Padrão" é aquela descrita por Turing ou, em vez disso, baseada em uma leitura errada de seu artigo, essas três versões não são consideradas equivalentes, [45] e seus pontos fortes e fracos são distinto. [46]

Huma Shah aponta que o próprio Turing estava preocupado em saber se uma máquina poderia pensar e estava fornecendo um método simples para examinar isso: por meio de sessões de perguntas e respostas entre humanos e máquinas. [47] Shah argumenta que há um jogo de imitação que Turing descreveu poderia ser praticado de duas maneiras diferentes: a) teste de máquina interrogador um para um eb) comparação simultânea de uma máquina com um humano, ambos questionados em paralelo por um interrogador. [25] Uma vez que o teste de Turing é um teste de indistinguibilidade na capacidade de desempenho, a versão verbal generaliza naturalmente para toda a capacidade de desempenho humano, verbal e não verbal (robótica). [48]

Jogo de imitação Editar

O artigo original de Turing descreve um jogo de festa simples envolvendo três jogadores. O jogador A é um homem, o jogador B é uma mulher e o jogador C (que desempenha o papel de interrogador) é de ambos os sexos. No jogo de imitação, o jogador C é incapaz de ver o jogador A ou o jogador B e pode comunicar-se com eles apenas por meio de notas escritas. Fazendo perguntas ao jogador A e ao jogador B, o jogador C tenta determinar qual dos dois é o homem e qual é a mulher. A função do jogador A é induzir o interrogador a tomar a decisão errada, enquanto o jogador B tenta ajudar o interrogador a tomar a decisão certa. [7]

"O que acontecerá quando uma máquina fizer o papel de A neste jogo? O interrogador decidirá erroneamente tanto quando o jogo é jogado assim como quando o jogo é disputado entre um homem e uma mulher?" Essas perguntas substituem nosso original, "As máquinas podem pensar?" [24]

A segunda versão apareceu mais tarde no artigo de 1950 de Turing. Semelhante ao teste do jogo de imitação original, o papel do jogador A é desempenhado por um computador. No entanto, o papel do jogador B é desempenhado por um homem e não por uma mulher.

Vamos fixar nossa atenção em um computador digital específico C. É verdade que ao modificar este computador para ter um armazenamento adequado, aumentar adequadamente sua velocidade de ação, e dotá-lo de um programa adequado, C pode ser feito para desempenhar satisfatoriamente a parte de A no jogo de imitação, a parte de B sendo assumida por um homem? [24]

Nesta versão, tanto o jogador A (o computador) quanto o jogador B estão tentando induzir o interrogador a tomar uma decisão incorreta.

Interpretação padrão Editar

A interpretação padrão não está incluída no artigo original, mas é aceita e debatida. É de entendimento comum que o objetivo do teste de Turing não é especificamente determinar se um computador é capaz de enganar um interrogador fazendo-o acreditar que é um humano, mas sim se um computador poderia imitar um humano. [7] Embora haja alguma controvérsia se esta interpretação foi pretendida por Turing, Sterrett acredita que era [49] e, portanto, confunde a segunda versão com esta, enquanto outros, como Traiger, não [45] - isso, no entanto, levou ao que pode ser visto como a "interpretação padrão". Nesta versão, o jogador A é um computador e o jogador B uma pessoa de ambos os sexos. O papel do interrogador não é determinar quem é homem e quem é mulher, mas quem é um computador e quem é humano. [50] A questão fundamental com a interpretação padrão é que o interrogador não pode diferenciar qual respondedor é humano e qual é máquina. Existem questões sobre a duração, mas a interpretação padrão geralmente considera essa limitação como algo que deve ser razoável.

Jogo de imitação vs. teste de Turing padrão Editar

A controvérsia surgiu sobre qual das formulações alternativas do teste Turing pretendia. [49] Sterrett argumenta que dois testes distintos podem ser extraídos de seu artigo de 1950 e que, ritmo A observação de Turing, eles não são equivalentes. O teste que emprega o jogo de festa e compara as frequências de sucesso é referido como o "Teste de Jogo de Imitação Original", enquanto o teste que consiste em um juiz humano conversando com um humano e uma máquina é referido como o "Teste de Turing Padrão", observando que Sterrett iguala isso com a "interpretação padrão" em vez da segunda versão do jogo de imitação. Sterrett concorda que o teste de Turing padrão (STT) tem os problemas citados por seus críticos, mas sente que, em contraste, o teste de jogo de imitação original (teste OIG) assim definido é imune a muitos deles, devido a uma diferença crucial: ao contrário do STT, não faz da semelhança com o desempenho humano o critério, embora empregue o desempenho humano para definir um critério para a inteligência da máquina. Um homem pode ser reprovado no teste OIG, mas argumenta-se que é uma virtude de um teste de inteligência que o fracasso indique falta de desenvoltura: O teste OIG requer a desenvoltura associada à inteligência e não meramente "simulação do comportamento conversacional humano". A estrutura geral do teste OIG pode até ser usada com versões não-verbais de jogos de imitação. [51]

Ainda outros escritores [52] interpretaram Turing como propondo que o próprio jogo de imitação é o teste, sem especificar como levar em consideração a afirmação de Turing de que o teste que ele propôs usando a versão partidária do jogo de imitação é baseado em um critério de comparação frequência de sucesso naquele jogo de imitação, ao invés da capacidade de sucesso em uma rodada do jogo.

Saygin sugeriu que talvez o jogo original seja uma forma de propor um projeto experimental menos tendencioso, pois esconde a participação do computador. [53] O jogo de imitação também inclui um "hack social" não encontrado na interpretação padrão, já que no jogo tanto o computador quanto o homem são obrigados a jogar fingindo ser alguém que não são. [54]

O interrogador deve saber sobre o computador? Editar

Uma parte crucial de qualquer teste de laboratório é que deve haver um controle. Turing nunca deixa claro se o interrogador em seus testes está ciente de que um dos participantes é um computador. Ele afirma apenas que o jogador A deve ser substituído por uma máquina, e não que o jogador C deve ser informado desta substituição. [24] Quando Colby, FD Hilf, S Weber e AD Kramer testaram PARRY, eles o fizeram assumindo que os interrogadores não precisavam saber que um ou mais dos entrevistados era um computador durante o interrogatório. [55] Como Ayse Saygin, Peter Swirski, [56] e outros destacaram, isso faz uma grande diferença na implementação e no resultado do teste. [7] Um estudo experimental observando as violações da máxima de Grice usando transcrições do prêmio um-para-um (interlocutor escondido do interrogador) de Loebner para concursos de IA entre 1994-1999, Ayse Saygin encontrou diferenças significativas entre as respostas dos participantes que sabiam e não sabiam saber sobre computadores envolvidos. [57]

Tractabilidade e simplicidade Editar

O poder e o apelo do teste de Turing derivam de sua simplicidade. A filosofia da mente, a psicologia e a neurociência moderna têm sido incapazes de fornecer definições de "inteligência" e "pensamento" que sejam suficientemente precisas e gerais para serem aplicadas a máquinas. Sem essas definições, as questões centrais da filosofia da inteligência artificial não podem ser respondidas. O teste de Turing, mesmo se imperfeito, pelo menos fornece algo que pode realmente ser medido. Como tal, é uma tentativa pragmática de responder a uma difícil questão filosófica.

Amplitude do assunto Editar

O formato do teste permite que o interrogador dê à máquina uma ampla variedade de tarefas intelectuais. Turing escreveu que "o método de perguntas e respostas parece ser adequado para a introdução de quase qualquer um dos campos da atividade humana que desejamos incluir". [58] John Haugeland acrescenta que "entender as palavras não é suficiente, você tem que entender o tema também. "[59]

Para passar em um teste de Turing bem projetado, a máquina deve usar uma linguagem natural, raciocinar, ter conhecimento e aprender. O teste pode ser estendido para incluir entrada de vídeo, bem como uma "escotilha" pela qual os objetos podem ser passados: isso forçaria a máquina a demonstrar o uso habilidoso de visão bem projetada e robótica também. Juntos, eles representam quase todos os principais problemas que a pesquisa em inteligência artificial gostaria de resolver. [60]

O teste de Feigenbaum é projetado para tirar proveito da ampla gama de tópicos disponíveis para um teste de Turing. É uma forma limitada do jogo de perguntas e respostas de Turing, que compara a máquina com as habilidades de especialistas em campos específicos, como literatura ou química. A máquina Watson da IBM obteve sucesso em um programa de perguntas e respostas na televisão sobre o conhecimento humano, Perigo! [61] [47] [ relevante para este parágrafo? - discutir ]

Ênfase na inteligência emocional e estética Editar

Como um graduado com honras de Cambridge em matemática, era de se esperar que Turing propusesse um teste de inteligência computacional que exigisse conhecimento especializado em algum campo altamente técnico, antecipando assim uma abordagem mais recente do assunto. Em vez disso, como já foi observado, o teste que ele descreveu em seu artigo seminal de 1950 requer que o computador seja capaz de competir com sucesso em um jogo de festa comum, e isso por ter um desempenho tão bom quanto o de um homem típico ao responder a uma série de perguntas, a fim de fingindo ser convincentemente a concorrente mulher.

Dado o status do dimorfismo sexual humano como um dos mais antigos dos assuntos, está implícito no cenário acima que as questões a serem respondidas não envolverão conhecimento factual especializado nem técnica de processamento de informação. O desafio para o computador, em vez disso, será demonstrar empatia pelo papel da mulher e demonstrar também uma sensibilidade estética característica - ambas qualidades estão em exibição neste trecho de diálogo que Turing imaginou:

Interrogador: X, por favor, pode me dizer o comprimento de seu cabelo? Concorrente: Meu cabelo tem cascalho e os fios mais longos têm cerca de 23 centímetros de comprimento.

Quando Turing introduz algum conhecimento especializado em um de seus diálogos imaginários, o assunto não é matemática ou eletrônica, mas poesia:

Interrogador: Na primeira linha de seu soneto, que diz: "Devo te comparar a um dia de verão", "um dia de primavera" não serviria tão bem ou melhor? Testemunha: Não digitalizaria. Interrogador: Que tal "um dia de inverno". Isso digitalizaria bem. Testemunha: Sim, mas ninguém quer ser comparado a um dia de inverno.

Turing, portanto, mais uma vez demonstra seu interesse em empatia e sensibilidade estética como componentes de uma inteligência artificial e à luz de uma crescente consciência da ameaça de uma IA descontrolada, [62] foi sugerido [63] que este foco talvez represente um intuição crítica da parte de Turing, ou seja, que a inteligência emocional e estética terá um papel fundamental na criação de uma "IA amigável". É ainda notado, no entanto, que qualquer inspiração que Turing possa ser capaz de dar nesta direção depende da preservação de sua visão original, o que quer dizer, além disso, que a promulgação de uma "interpretação padrão" do teste de Turing - ie , aquele que se concentra em uma inteligência discursiva apenas - deve ser considerado com alguma cautela.

Turing não afirmou explicitamente que o teste de Turing poderia ser usado como uma medida de inteligência ou qualquer outra qualidade humana. Ele queria fornecer uma alternativa clara e compreensível para a palavra "pensar", que ele poderia usar para responder às críticas sobre a possibilidade de "máquinas pensantes" e sugerir caminhos para que a pesquisa avance.

No entanto, o teste de Turing foi proposto como uma medida da "capacidade de pensar" ou de "inteligência" de uma máquina. Esta proposta recebeu críticas de filósofos e cientistas da computação. Ele assume que um interrogador pode determinar se uma máquina está "pensando" comparando seu comportamento com o comportamento humano. Cada elemento dessa suposição foi questionado: a confiabilidade do julgamento do interrogador, o valor de comparar apenas o comportamento e o valor de comparar a máquina com um humano. Por causa dessas e outras considerações, alguns pesquisadores de IA questionaram a relevância do teste para seu campo.

Inteligência humana vs. inteligência em geral Editar

O teste de Turing não testa diretamente se o computador se comporta de maneira inteligente. Ele testa apenas se o computador se comporta como um ser humano. Uma vez que o comportamento humano e o comportamento inteligente não são exatamente a mesma coisa, o teste pode falhar em medir com precisão a inteligência de duas maneiras:

Alguns comportamentos humanos não são inteligentes. O teste de Turing requer que a máquina seja capaz de executar tudo comportamentos humanos, independentemente de serem inteligentes. Ele até testa comportamentos que podem não ser considerados inteligentes, como a suscetibilidade a insultos, [64] a tentação de mentir ou, simplesmente, uma alta frequência de erros de digitação. Se uma máquina não consegue imitar esses comportamentos não inteligentes em detalhes, ela falha no teste. Esta objeção foi levantada por O economista, em um artigo intitulado "estupidez artificial" publicado logo após a primeira competição do Prêmio Loebner em 1992. O artigo observou que a vitória do primeiro vencedor do Loebner se devia, pelo menos em parte, à sua capacidade de "imitar erros humanos de digitação". [41] O próprio Turing sugeriu que os programas adicionassem erros em sua saída, para serem melhores "jogadores" do jogo. [65] Algum comportamento inteligente é desumano O teste de Turing não testa comportamentos altamente inteligentes, como a habilidade de resolver problemas difíceis ou chegar a percepções originais. Na verdade, requer especificamente engano por parte da máquina: se a máquina for mais inteligente do que um ser humano, deve evitar deliberadamente parecer muito inteligente. Se fosse para resolver um problema computacional que é praticamente impossível para um ser humano resolver, o interrogador saberia que o programa não é humano e a máquina falharia no teste. Como não pode medir a inteligência que está além da capacidade dos humanos, o teste não pode ser usado para construir ou avaliar sistemas que sejam mais inteligentes do que os humanos. Por conta disso, várias alternativas de teste que seriam capazes de avaliar sistemas superinteligentes foram propostas. [66]

Consciência vs. simulação de consciência Editar

O teste de Turing se preocupa estritamente com a forma como o assunto atos - o comportamento externo da máquina. Nesse sentido, é necessária uma abordagem comportamental ou funcionalista para o estudo da mente. O exemplo de ELIZA sugere que uma máquina que passa no teste pode simular o comportamento conversacional humano seguindo uma lista simples (mas grande) de regras mecânicas, sem pensar ou ter mente alguma.

John Searle argumentou que o comportamento externo não pode ser usado para determinar se uma máquina está "realmente" pensando ou apenas "simulando o pensamento". [35] Seu argumento do quarto chinês pretende mostrar que, mesmo que o teste de Turing seja uma boa definição operacional de inteligência, ele pode não indicar que a máquina tem uma mente, consciência ou intencionalidade. (Intencionalidade é um termo filosófico para o poder dos pensamentos ser "sobre" algo.)

Turing antecipou esta linha de crítica em seu artigo original, [67] escrevendo:

Não quero dar a impressão de que não há mistério sobre a consciência. Há, por exemplo, algo de paradoxo relacionado a qualquer tentativa de localizá-lo. Mas não creio que esses mistérios precisem ser necessariamente resolvidos antes de podermos responder à questão com a qual nos preocupamos neste artigo. [68]

Ingenuidade dos interrogadores e a falácia antropomórfica Editar

Na prática, os resultados do teste podem ser facilmente dominados não pela inteligência do computador, mas pelas atitudes, habilidade ou ingenuidade do questionador.

Turing não especifica as habilidades precisas e conhecimentos exigidos pelo interrogador em sua descrição do teste, mas ele usou o termo "interrogador médio": "[o] interrogador médio não teria mais de 70 por cento de chance de acertar identificação após cinco minutos de questionamento ". [69]

Programas Chatterbot como ELIZA têm repetidamente enganado pessoas desavisadas fazendo-as acreditar que estão se comunicando com seres humanos. Nestes casos, os “interrogadores” nem mesmo têm consciência da possibilidade de estarem interagindo com computadores. Para ter uma aparência humana bem-sucedida, não há necessidade de que a máquina tenha inteligência alguma e apenas uma semelhança superficial com o comportamento humano é necessária.

As primeiras competições do Prêmio Loebner usavam interrogadores "não sofisticados" que eram facilmente enganados pelas máquinas. [42] Desde 2004, os organizadores do Prêmio Loebner destacaram filósofos, cientistas da computação e jornalistas entre os interrogadores. No entanto, alguns desses especialistas foram enganados pelas máquinas. [70]

Edição de identificação incorreta humana

Uma característica interessante do teste de Turing é a frequência do efeito confederado, quando os humanos confederados (testados) são erroneamente identificados pelos interrogadores como máquinas. Foi sugerido que o que os interrogadores esperam como respostas humanas não é necessariamente típico dos humanos. Como resultado, alguns indivíduos podem ser classificados como máquinas. Isso pode, portanto, trabalhar a favor de uma máquina concorrente. Os humanos são instruídos a "agirem sozinhos", mas às vezes suas respostas são mais parecidas com o que o interrogador espera que uma máquina diga. [71] Isso levanta a questão de como garantir que os humanos sejam motivados a "agir como humanos".

Silêncio Editar

Um aspecto crítico do teste de Turing é que uma máquina deve se entregar como sendo uma máquina por seus enunciados. Um interrogador deve então fazer a "identificação correta", identificando corretamente a máquina como sendo exatamente isso. Se, no entanto, uma máquina permanecer em silêncio durante uma conversa, então não será possível para um interrogador identificar com precisão a máquina a não ser por meio de uma suposição calculada. [72] Mesmo levar em consideração um ser humano paralelo / oculto como parte do teste pode não ajudar a situação, já que os humanos muitas vezes podem ser identificados erroneamente como sendo uma máquina. [73]

Impraticabilidade e irrelevância: o teste de Turing e a pesquisa de IA Editar

Os principais pesquisadores da IA ​​argumentam que tentar passar no teste de Turing é apenas uma distração de pesquisas mais frutíferas. [43] De fato, o teste de Turing não é um foco ativo de muito esforço acadêmico ou comercial - como Stuart Russell e Peter Norvig escrevem: "Os pesquisadores de IA dedicaram pouca atenção à aprovação no teste de Turing." [74] Existem várias razões.

Primeiro, existem maneiras mais fáceis de testar seus programas. A maioria das pesquisas atuais em campos relacionados à IA visa objetivos modestos e específicos, como programação automatizada, reconhecimento de objetos ou logística. Para testar a inteligência dos programas que resolvem esses problemas, os pesquisadores de IA simplesmente lhes atribuem a tarefa diretamente. Stuart Russell e Peter Norvig sugerem uma analogia com a história do voo: os aviões são testados por quão bem eles voam, não por comparação com pássaros . "Textos de engenharia aeronáutica", eles escrevem, "não definem o objetivo de seu campo como 'fazer máquinas que voam tão exatamente como pombos que podem enganar outros pombos.'" [74]

Em segundo lugar, a criação de simulações realistas de seres humanos é um problema difícil por si só, que não precisa ser resolvido para atingir os objetivos básicos da pesquisa em IA. Personagens humanos críveis podem ser interessantes em uma obra de arte, um jogo ou uma interface de usuário sofisticada, mas eles não fazem parte da ciência de criar máquinas inteligentes, ou seja, máquinas que resolvem problemas usando inteligência.

Turing queria fornecer um exemplo claro e compreensível para ajudar na discussão da filosofia da inteligência artificial. [75] John McCarthy observa que a filosofia da IA ​​é "improvável que tenha mais efeito na prática da pesquisa em IA do que a filosofia da ciência geralmente tem na prática da ciência." [76]

Ciência cognitiva Editar

Robert French (1990) defende que um interrogador pode distinguir interlocutores humanos e não humanos ao colocar questões que revelam os processos de baixo nível (isto é, inconscientes) da cognição humana, conforme estudado pela ciência cognitiva. Essas perguntas revelam os detalhes precisos da personificação humana do pensamento e podem desmascarar um computador, a menos que ele experimente o mundo como os humanos. [77]

Definindo "Think" Edit

Alan Turing usou o jogo de imitação para responder à pergunta: "Uma máquina pode pensar?". No entanto, para fazer isso, ele mudou a pergunta para "Existem computadores imagináveis ​​que fariam bem no jogo de imitação?" [78] O problema com isso é a implicação de uma equivalência entre o que significa "pensar" e o que significa "imitar". As duas ações não são sinônimos, nem têm significado relacionado. [79] Este é um aspecto fundamental de sua racionalidade para usar O Jogo de Imitação como um teste de inteligência. Sem essa mudança, o teste de Turing não responde à pergunta original.

Numerosas outras versões do teste de Turing, incluindo aquelas expostas acima, foram levantadas ao longo dos anos.

Teste de Turing reverso e edição CAPTCHA

Uma modificação do teste de Turing em que o objetivo de um ou mais dos papéis foi invertido entre máquinas e humanos é denominado teste de Turing reverso. Um exemplo está implícito no trabalho do psicanalista Wilfred Bion, [80] que ficou particularmente fascinado pela "tempestade" que resultou do encontro de uma mente com a outra. Em seu livro de 2000, [56] entre vários outros pontos originais com relação ao teste de Turing, o estudioso literário Peter Swirski discutiu em detalhes a ideia do que ele chamou de teste de Swirski - essencialmente o teste de Turing reverso. Ele ressaltou que supera a maioria, senão todas as objeções padrão levantadas na versão padrão.

Levando essa ideia adiante, R. D. Hinshelwood [81] descreveu a mente como um "aparelho de reconhecimento de mente". O desafio seria o computador ser capaz de determinar se ele estava interagindo com um humano ou outro computador. Esta é uma extensão da pergunta original que Turing tentou responder, mas poderia, talvez, oferecer um padrão alto o suficiente para definir uma máquina que poderia "pensar" de uma maneira que normalmente definimos como caracteristicamente humana.

CAPTCHA é uma forma de teste de Turing reverso. Antes de poder realizar alguma ação em um site, o usuário é apresentado a caracteres alfanuméricos em uma imagem gráfica distorcida e é solicitado a digitá-los. O objetivo é evitar que sistemas automatizados sejam usados ​​para abusar do site. A justificativa é que o software suficientemente sofisticado para ler e reproduzir a imagem distorcida com precisão não existe (ou não está disponível para o usuário médio), portanto, qualquer sistema capaz de fazer isso provavelmente será um humano.

Software que poderia reverter CAPTCHA com alguma precisão, analisando padrões no motor gerador, começou a ser desenvolvido logo após a criação do CAPTCHA. [82] Em 2013, pesquisadores da Vicarious anunciaram que desenvolveram um sistema para resolver desafios CAPTCHA do Google, Yahoo! E PayPal em até 90% das vezes. [83] Em 2014, os engenheiros do Google demonstraram um sistema que poderia vencer os desafios do CAPTCHA com precisão de 99,8%. [84] Em 2015, Shuman Ghosemajumder, ex-czar da fraude de cliques do Google, afirmou que havia sites cibercriminosos que derrotariam os desafios do CAPTCHA por uma taxa, para permitir várias formas de fraude. [85]

Teste de Turing do especialista no assunto Editar

Outra variação é descrita como o teste de Turing do especialista no assunto, em que a resposta de uma máquina não pode ser distinguida de um especialista em um determinado campo. Isso também é conhecido como "teste de Feigenbaum" e foi proposto por Edward Feigenbaum em um artigo de 2003. [86]

Teste de Turing total Editar

A variação "Teste de Turing Total" [48] do teste de Turing, proposta pelo cientista cognitivo Stevan Harnad, [87] adiciona mais dois requisitos ao teste de Turing tradicional. O interrogador também pode testar as habilidades perceptivas do sujeito (exigindo visão computacional) e a habilidade do sujeito de manipular objetos (exigindo robótica). [88]

Editar registros eletrônicos de saúde

Uma carta publicada em Comunicações do ACM [89] descreve o conceito de geração de uma população de pacientes sintéticos e propõe uma variação do teste de Turing para avaliar a diferença entre pacientes sintéticos e reais. A carta afirma: "No contexto EHR, embora um médico humano possa distinguir prontamente entre pacientes humanos vivos e gerados sinteticamente, poderia uma máquina ter inteligência para fazer tal determinação por conta própria?" e, além disso, a carta afirma: "Antes que as identidades sintéticas dos pacientes se tornem um problema de saúde pública, o mercado legítimo de EHR pode se beneficiar da aplicação de técnicas semelhantes ao Teste de Turing para garantir maior confiabilidade dos dados e valor diagnóstico. Quaisquer novas técnicas devem, portanto, considerar a heterogeneidade dos pacientes e são provavelmente terá maior complexidade do que o teste de ciências da oitava série de Allen é capaz de avaliar. "

Teste de sinal mínimo inteligente Editar

O teste de sinal mínimo inteligente foi proposto por Chris McKinstry como "a abstração máxima do teste de Turing", [90] em que apenas respostas binárias (verdadeiro / falso ou sim / não) são permitidas, para focar apenas na capacidade de pensamento. Ele elimina problemas de chat de texto como preconceito de antropomorfismo e não requer emulação de comportamento humano não inteligente, permitindo sistemas que excedem a inteligência humana. Cada uma das perguntas deve ser avaliada por si própria, no entanto, tornando-se mais como um teste de QI do que um interrogatório. É normalmente usado para coletar dados estatísticos contra os quais o desempenho de programas de inteligência artificial pode ser medido. [91]

Edição do Prêmio Hutter

Os organizadores do Prêmio Hutter acreditam que compactar texto em linguagem natural é um problema difícil de IA, equivalente a passar no teste de Turing.

O teste de compactação de dados tem algumas vantagens sobre a maioria das versões e variações de um teste de Turing, incluindo:

  • Ele fornece um único número que pode ser usado diretamente para comparar qual das duas máquinas é "mais inteligente".
  • Não requer que o computador minta para o juiz

As principais desvantagens de usar a compactação de dados como teste são:

  • Não é possível testar humanos dessa forma.
  • Não se sabe qual "pontuação" específica neste teste - se houver - é equivalente a passar em um teste de Turing de nível humano.

Outros testes baseados em compressão ou complexidade de Kolmogorov. Editar

Uma abordagem relacionada ao prêmio de Hütter, que apareceu muito antes no final da década de 1990, é a inclusão de problemas de compressão em um teste de Turing estendido. [92] ou por testes que são completamente derivados da complexidade de Kolmogorov. [93] Outros testes relacionados nesta linha são apresentados por Hernandez-Orallo e Dowe. [94]

Algorithmic IQ, ou AIQ para breve, é uma tentativa de converter a medida de inteligência universal teórica de Legg e Hutter (com base na inferência indutiva de Solomonoff) em um teste prático de trabalho de inteligência de máquina. [95]

Duas vantagens principais de alguns desses testes são sua aplicabilidade a inteligências não humanas e a ausência de um requisito para testadores humanos.

Teste Ebert Editar

O teste de Turing inspirou o teste de Ebert proposto em 2011 pelo crítico de cinema Roger Ebert, que é um teste para verificar se uma voz sintetizada por computador tem habilidade suficiente em termos de entonações, inflexões, tempo e assim por diante, para fazer as pessoas rirem. [96]

Edição do Turing Colloquium

1990 marcou o quadragésimo aniversário da primeira publicação do artigo de Turing "Computing Machinery and Intelligence" e viu um interesse renovado no teste. Dois eventos significativos ocorreram naquele ano: O primeiro foi o Colóquio de Turing, que foi realizado na Universidade de Sussex em abril, e reuniu acadêmicos e pesquisadores de uma ampla variedade de disciplinas para discutir o teste de Turing em termos de seu passado, presente e, no futuro, o segundo foi a formação da competição anual do Prêmio Loebner.

Blay Whitby lista quatro pontos importantes na história do teste de Turing - a publicação de "Computing Machinery and Intelligence" em 1950, o anúncio de ELIZA de Joseph Weizenbaum em 1966, a criação de PARRY de Kenneth Colby, que foi descrita pela primeira vez em 1972, e o Colóquio de Turing em 1990. [97]

2005 Colloquium on Conversational Systems Edit

Em novembro de 2005, a Universidade de Surrey hospedou uma reunião inaugural de um dia de desenvolvedores de entidades conversacionais artificiais, [98] com a presença dos vencedores dos testes práticos de Turing no Prêmio Loebner: Robby Garner, Richard Wallace e Rollo Carpenter. Os palestrantes convidados incluíram David Hamill, Hugh Loebner (patrocinador do Prêmio Loebner) e Huma Shah.

Edição do Simpósio AISB 2008

Em paralelo ao Prêmio Loebner de 2008 realizado na Universidade de Reading, [99] a Sociedade para o Estudo de Inteligência Artificial e Simulação do Comportamento (AISB), organizou um simpósio de um dia para discutir o teste de Turing, organizado por John Barnden , Mark Bishop, Huma Shah e Kevin Warwick. [100] Os palestrantes incluíram a diretora do Royal Institution, Baronesa Susan Greenfield, Selmer Bringsjord, o biógrafo de Turing, Andrew Hodges, e o cientista da consciência Owen Holland. Nenhum acordo surgiu para um teste de Turing canônico, embora Bringsjord expressasse que um prêmio considerável resultaria na aprovação do teste de Turing mais cedo.

The Alan Turing Year e Turing100 em 2012 Edit

Ao longo de 2012, uma série de eventos importantes aconteceram para celebrar a vida e o impacto científico de Turing. O grupo Turing100 apoiou esses eventos e também organizou um evento especial de teste de Turing em Bletchley Park em 23 de junho de 2012 para comemorar o 100º aniversário do nascimento de Turing.


Em 1950, Alan Turing criou um programa de computador de xadrez que pré-configurou a I.A. - HISTÓRIA


Centro de Cobertura Especial: Algoritmos e Inteligência Artificial
Copyright & copy 2017 - 2019 Middletown Thrall Library

Conceitos e terminologia de amp Glossário de IA: inteligência artificial, em tantas palavras Termos populares de inteligência artificial (por exemplo, aprendizado profundo, aprendizado de máquina, redes neurais, IA forte) definidos. Da Ciência / Associação Americana para o Avanço da Ciência (AAAS). Artificially Intelligent: Um Breve Glossário das Idéias por Trás da AI da CNET. Dicionário de Algoritmos e Estruturas de Dados "Este é um dicionário de algoritmos, técnicas algorítmicas, estruturas de dados, problemas arquetípicos e definições relacionadas." Do NIST (Instituto Nacional de Padrões e Tecnologia). Artigo da Enciclopédia do Teste de Turing sobre o teste proposto por Alan Turing a respeito das "máquinas pensantes". Extraído da Enciclopédia de Filosofia de Stanford. O que é um algoritmo? Documento PDF. Da BBC. O que é um algoritmo e por que você deve se importar? 5 min. vídeo da Khan Academy. Isso é parte de seu curso introdutório maior sobre algoritmos de computador.


Discussões e debates Benefícios e riscos da Inteligência Artificial Artigo com infográfico. Instituto Do Futuro da Vida (FLI). Veja também a página de Mitos sobre IA avançada. Como os algoritmos moldam nosso mundo 15 min. vídeo (uma "palestra TED"). "Nesta conversa divertida e fascinante, Kevin Slavin mostra como algoritmos modernos determinam os preços das ações, táticas de espionagem e até mesmo os filmes que você assiste. Mas, ele pergunta: se dependermos de algoritmos complexos para gerenciar nossas decisões diárias - quando começaremos a perder o controle?" De pontos de vista opostos no contexto (disponível para usuários Thrall / RCLS) - Pontos de vista e artigos: Drones de inteligência artificial Robôs A beleza e o poder dos algoritmos 10 min. vídeo. "Algoritmos adaptáveis, inteligentes e consistentes estão surgindo como o aplicativo definitivo para tudo, desde a correspondência de consumidores a produtos até a avaliação de diagnósticos médicos. Vishal Sikka compartilha sua apreciação pelo algoritmo, mapeando sua beleza inerente e seu poder crescente." Do TED.com ("TED Talks"): Como os computadores aprendem a reconhecer objetos instantaneamente 7 min. vídeo com transcrição de texto multilíngue disponível. "Em uma demonstração ao vivo notável, Redmon mostra este importante passo à frente para aplicações como carros autônomos, robótica e até detecção de câncer." A inteligência da máquina torna a moral humana mais importante 17 min. vídeo com transcrição de texto multilíngue disponível. "A inteligência da máquina está aqui e já a estamos usando para tomar decisões subjetivas. Mas a forma complexa como a IA cresce e se aprimora torna-a difícil de entender e ainda mais difícil de controlar. Nesta palestra de advertência, o tecnossociólogo Zeynep Tufekci explica como é inteligente as máquinas podem falhar de maneiras que não se enquadram nos padrões de erro humano - e de maneiras que não esperamos ou para as quais não estaremos preparados. " A Ascensão da Cooperação Humano-Computador 12 min. vídeo com transcrição de texto multilíngue disponível. "A força bruta da computação sozinha não pode resolver os problemas do mundo. O inovador de mineração de dados Shyam Sankar explica por que resolver grandes problemas (como capturar terroristas ou identificar grandes tendências ocultas) não é uma questão de encontrar o algoritmo certo, mas sim a relação simbiótica certa entre computação e criatividade humana. " As implicações maravilhosas e aterrorizantes de computadores que podem aprender 19 min. vídeo com transcrição de texto multilíngue disponível. "O que acontece quando ensinamos um computador a aprender? O tecnólogo Jeremy Howard compartilha alguns novos desenvolvimentos surpreendentes no campo em rápida evolução do aprendizado profundo, uma técnica que pode dar aos computadores a capacidade de aprender chinês ou de reconhecer objetos em fotos, ou para ajudar a pensar em um diagnóstico médico. " Veja também esses outros links do TED para mais palestras / artigos / transcrições relacionados: Algoritmos Robôs de aprendizado de máquina de inteligência artificial O debate simplista sobre inteligência artificial da psicologia atual. Stop Killer Robots "Formada pelas seguintes organizações não governamentais (ONGs) em uma reunião em Nova York em 19 de outubro de 2012 e lançada em Londres em abril de 2013, a Campaign to Stop Killer Robots é uma coalizão internacional que trabalha para proibir preventivamente armas totalmente autônomas . " Quando as máquinas devem tomar decisões? "Quando é que está tudo bem deixar uma máquina tomar uma decisão em vez de uma pessoa?" Instituto Do Futuro da Vida (FLI). A Casa Branca (Presidente Obama): PDF do Relatório do Governo sobre o Futuro da Inteligência Artificial. Publicado em outubro de 2016. Relatório completo disponível neste link. Artigo da The Atlantic. Julho de 2017.


Robôs e tecnologias de robótica Como funcionam os robôs a partir de como as coisas funcionam. Veja também seu canal de robôs. De PBS / NOVA: Nosso Futuro Automatizado "Estamos à beira de uma nova revolução industrial, movida por algoritmos inteligentes e robôs sofisticados. Estamos prontos para nosso futuro automatizado?" 2013-2017. Rise of the Robots "As máquinas estão por toda parte. Eles operam nossas linhas de montagem de fábrica e fazem nosso café. Mas os robôs humanóides - máquinas com capacidades semelhantes às dos humanos - sempre foram matéria de ficção científica. Até agora. Alimentados por um ambicioso desafio da DARPA, a corrida para projetar um robô que possa substituir humanos em situações de emergência ? Quão perto estamos de um futuro em que robôs humanóides fazem parte de nossa vida cotidiana? E como será o futuro com robôs que podem fazer o trabalho de um humano? A NOVA investiga as tecnologias de ponta que estão promovendo a robótica - e os enormes desafios que os robôs ainda enfrentam. " Dezembro de 2017. O que é robótica? Um breve artigo introdutório da NASA. Veja também a página de Robótica da NASA. Notícias do Massachusetts Institute of Technology (MIT): Artigos de robótica.


Estudos e relatórios especiais Inteligência Artificial e o Futuro dos Humanos "Especialistas dizem que o surgimento da inteligência artificial melhorará a situação da maioria das pessoas na próxima década, mas muitos se preocupam sobre como os avanços na IA afetarão o que significa ser humano, ser produtivo e se exercitar. livre arbítrio. " Da Pew Research. Por favor, veja este link para o relatório completo (PDF). Controlando o Algoritmo de Áudio Inexplicável. "Os algoritmos são as ferramentas matemáticas poderosas que moldam grande parte da vida moderna, desde as notícias que aparecem em nossa linha do tempo até os anúncios que surgem em nosso computador. Mas com algoritmos que agora avaliam currículos de empregos ou aplicações de hipotecas, a necessidade de entender o que eles fazem e, se necessário, desafiá-los é maior do que nunca. Então, como podemos exercer controle legal ou democrático sobre o algoritmo inexplicável? Emily Bell investiga "Da rádio BBC. Como os algoritmos executam minha vida? Da BBC.Máquinas inteligentes "A inteligência artificial e os robôs estão transformando a forma como trabalhamos e vivemos." Da MIT Technology Review. Viés da máquina: Investigando a injustiça algorítmica "Investigando a injustiça algorítmica e as fórmulas que influenciam nossas vidas." Da ProPublica. Atitudes públicas em relação aos algoritmos de computador "Os americanos expressam ampla preocupação com a justiça e a eficácia dos programas de computador que tomam decisões importantes na vida das pessoas." Do Pew Research Center. Publicado em novembro de 2018.


Para mais exploração. Livros e vídeos no Catálogo do sistema de biblioteca Thrall / RCLS: Algoritmos Sites de robôs de aprendizado de máquina de inteligência artificial: Associação para o Avanço da Inteligência Artificial (AAAI) "Fundada em 1979, a Associação para o Avanço da Inteligência Artificial (AAAI) (anteriormente americana Association for Artificial Intelligence) é uma sociedade científica sem fins lucrativos dedicada a promover a compreensão científica dos mecanismos subjacentes ao pensamento e ao comportamento inteligente e sua incorporação nas máquinas. A AAAI visa promover a pesquisa e o uso responsável da inteligência artificial. A AAAI também visa aumentar compreensão pública da inteligência artificial, melhorar o ensino e o treinamento de praticantes de IA e fornecer orientação para planejadores e financiadores de pesquisas sobre a importância e o potencial dos atuais desenvolvimentos de IA e direções futuras. " Vários sites de inteligência artificial. Diretório fornecido pela Biblioteca Thrall de Middletown. Coursera.org - Cursos e Materiais de Aprendizagem Online Gratuitos Conteúdo fornecido por várias faculdades e universidades: Algoritmos Robôs de Aprendizado de Máquina de Inteligência Artificial KurzweilAI.net Notícias e artigos e sobre ciência e tecnologias relacionadas à IA.


Centro de Cobertura Especial: Algoritmos e Inteligência Artificial
Copyright e cópia 2017 - Biblioteca atual de Middletown Thrall


Uma história muito curta de inteligência artificial (IA)

1308, o poeta e teólogo catalão Ramon Llull publica Ars generalis ultima (The Ultimate General Art), aperfeiçoando ainda mais seu método de uso de meios mecânicos baseados em papel para criar novos conhecimentos a partir de combinações de conceitos.

1666 O matemático e filósofo Gottfried Leibniz publica Dissertatio de arte combinatoria (Sobre a Arte Combinatória), seguindo Ramon Llull ao propor um alfabeto do pensamento humano e argumentar que todas as idéias nada mais são do que combinações de um número relativamente pequeno de conceitos simples.

1726 Jonathan Swift publica As Viagens de Gulliver, que inclui uma descrição do Motor, uma máquina na ilha de Laputa (e uma paródia das idéias de Lúlio): "um projeto para melhorar o conhecimento especulativo por meio de operações práticas e mecânicas". Usando este "artifício", "a pessoa mais ignorante a um custo razoável, e com um pouco de trabalho corporal, pode escrever livros de filosofia, poesia, politikos, direito, matemática e teologia, com a mínima ajuda de gênio ou estudo. "

1763 Thomas Bayes desenvolve uma estrutura para raciocinar sobre a probabilidade de eventos. A inferência bayesiana se tornará uma abordagem líder em aprendizado de máquina.

1854 George Boole argumenta que o raciocínio lógico pode ser executado sistematicamente da mesma maneira que resolver um sistema de equações.

1898 Em uma exposição elétrica no recém-concluído Madison Square Garden, Nikola Tesla faz uma demonstração da primeira embarcação controlada por rádio do mundo. O barco foi equipado com, como Tesla descreveu, "uma mente emprestada".

1914 O engenheiro espanhol Leonardo Torres y Quevedo demonstra a primeira máquina de jogar xadrez, capaz de jogos finais de rei e torre contra rei sem qualquer intervenção humana.

1921 O escritor tcheco Karel Čapek introduz a palavra "robô" em sua peça R.U.R. (Robôs Universais de Rossum). A palavra "robô" vem da palavra "robota" (trabalho).

1925 Houdina Radio Control lança um carro sem motorista controlado por rádio, viajando pelas ruas da cidade de Nova York.

1927 O filme de ficção científica Metrópole é libertado. Ele apresenta um dublê de robô de uma camponesa, Maria, que desencadeia o caos em Berlim de 2026 - foi o primeiro robô retratado no filme, inspirando o visual Art Déco de C-3PO em Guerra das Estrelas.

1929 Makoto Nishimura projeta Gakutensoku, japonês para "aprender com as leis da natureza", o primeiro robô construído no Japão. Ele poderia mudar sua expressão facial e mover a cabeça e as mãos por meio de um mecanismo de pressão de ar.

1943 Warren S. McCulloch e Walter Pitts publicam "Um Cálculo Lógico das Idéias Imanentes na Atividade Nervosa" no Boletim de Biofísica Matemática. Este influente artigo, no qual eles discutiram redes de "neurônios" artificiais idealizados e simplificados e como eles podem realizar funções lógicas simples, se tornará a inspiração para "redes neurais" baseadas em computador (e mais tarde "aprendizado profundo") e sua descrição popular como “imitando o cérebro”.

1949 Edmund Berkeley publica Cérebros gigantes: ou máquinas que pensam no qual ele escreve: “Recentemente, tem havido muitas notícias sobre estranhas máquinas gigantes que podem manipular informações com vasta velocidade e habilidade .... Essas máquinas são semelhantes ao que um cérebro seria se fosse feito de hardware e fio em vez de carne e nervos ... Uma máquina pode lidar com informações - ela pode calcular, concluir e escolher - pode realizar operações razoáveis ​​com informações. Uma máquina, portanto, pode pensar. ”

1949 Donald Hebb publica Organização do comportamento: uma teoria neuropsicológica no qual ele propõe uma teoria sobre aprendizagem baseada em conjecturas sobre redes neurais e a capacidade das sinapses de se fortalecer ou enfraquecer ao longo do tempo.

1950 Claude Shannon, "Programando um Computador para Jogar Xadrez", é o primeiro artigo publicado sobre o desenvolvimento de um programa de computador para jogar xadrez.

1950 Alan Turing publica "Computing Machinery and Intelligence" em que propõe "o jogo de imitação" que mais tarde se tornará conhecido como o "Teste de Turing".

1951 Marvin Minsky e Dean Edmunds constroem SNARC (Calculadora de Reforço Analógico Neural Estocástico), a primeira rede neural artificial, usando 3000 tubos de vácuo para simular uma rede de 40 neurônios.

1952 Arthur Samuel desenvolve o primeiro programa de jogo de damas e o primeiro programa de computador a aprender por conta própria.

31 de agosto de 1955 O termo "inteligência artificial" é cunhado em uma proposta para um "estudo de inteligência artificial de 2 meses e 10 homens" apresentado por John McCarthy (Dartmouth College), Marvin Minsky (Harvard University), Nathaniel Rochester (IBM), e Claude Shannon (Bell Telephone Laboratories). O workshop, que ocorreu um ano depois, em julho e agosto de 1956, é geralmente considerado a data de nascimento oficial do novo campo.

Dezembro de 1955 Herbert Simon e Allen Newell desenvolvem o Logic Theorist, o primeiro programa de inteligência artificial, que eventualmente provaria 38 dos primeiros 52 teoremas em Whitehead e Russell's Principia Mathematica.

1957 Frank Rosenblatt desenvolve o Perceptron, uma das primeiras redes neurais artificiais que permitem o reconhecimento de padrões com base em uma rede de aprendizagem por computador de duas camadas. O jornal New York Times relatou que o Perceptron é "o embrião de um computador eletrônico que [a Marinha] espera que seja capaz de andar, falar, ver, escrever, se reproduzir e ter consciência de sua existência". O Nova-iorquino chamou de uma "máquina notável ... capaz do que equivale a pensamento."

1958 John McCarthy desenvolve a linguagem de programação Lisp, que se torna a linguagem de programação mais popular usada na pesquisa de inteligência artificial.

1959 Arthur Samuel cunha o termo “aprendizado de máquina”, relatando sobre a programação de um computador “para que ele aprenda a jogar um jogo de damas melhor do que aquele que pode ser jogado pela pessoa que escreveu o programa”.

1959 Oliver Selfridge publica "Pandemonium: A paradigm for learning" no Anais do Simpósio de Mecanização de Processos de Pensamento, no qual ele descreve um modelo para um processo pelo qual os computadores podem reconhecer padrões que não foram especificados com antecedência.

1959 John McCarthy publica "Programs with Common Sense" no Anais do Simpósio de Mecanização de Processos de Pensamento, no qual ele descreve o Conselheiro, um programa para resolver problemas por meio da manipulação de frases em linguagens formais com o objetivo final de fazer programas “que aprendam com sua experiência de forma tão eficaz quanto os humanos”.

1961 O primeiro robô industrial, Unimate, começa a trabalhar em uma linha de montagem em uma fábrica da General Motors em Nova Jersey.

1961 James Slagle desenvolve SAINT (Symbolic Automatic INTegrator), um programa heurístico que resolvia problemas de integração simbólica no cálculo do calouro.

1964 Daniel Bobrow conclui sua dissertação de doutorado no MIT intitulada “Entrada de linguagem natural para um sistema de solução de problemas de computador” e desenvolve STUDENT, um programa de computador para compreensão de linguagem natural.

1965 Herbert Simon prevê que "as máquinas serão capazes, dentro de vinte anos, de fazer qualquer trabalho que um homem possa fazer".

1965 Hubert Dreyfus publica "Alchemy and AI", argumentando que a mente não é como um computador e que havia limites além dos quais a AI não progrediria.

1965 I.J. Good escreve em "Especulações sobre a primeira máquina ultrainteligente" que "a primeira máquina ultrainteligente é a última invenção que o homem precisa fazer, desde que a máquina seja dócil o suficiente para nos dizer como mantê-la sob controle."

1965 Joseph Weizenbaum desenvolve ELIZA, um programa interativo que dialoga em inglês sobre qualquer assunto. Weizenbaum, que queria demonstrar a superficialidade da comunicação entre o homem e a máquina, ficou surpreso com a quantidade de pessoas que atribuíram sentimentos humanos ao programa de computador.

1965 Edward Feigenbaum, Bruce G. Buchanan, Joshua Lederberg e Carl Djerassi começam a trabalhar no DENDRAL na Universidade de Stanford. O primeiro sistema especialista, automatizou o processo de tomada de decisão e o comportamento de resolução de problemas dos químicos orgânicos, com o objetivo geral de estudar a formação de hipóteses e construir modelos de indução empírica na ciência.

1966 O robô Shakey é o primeiro robô móvel de uso geral a ser capaz de raciocinar sobre suas próprias ações. Em uma vida artigo da revista 1970 sobre esta “primeira pessoa eletrônica”, Marvin Minsky é citado dizendo com “certeza”: “Em três a oito anos teremos uma máquina com a inteligência geral de um ser humano médio.”

1968 O filme 2001: Odisséia no Espaço é lançado, apresentando Hal, um computador consciente.

1968 Terry Winograd desenvolve SHRDLU, um dos primeiros programas de computador para compreensão de linguagem natural.

1969 Arthur Bryson e Yu-Chi Ho descrevem a retropropagação como um método de otimização de sistema dinâmico de vários estágios. Um algoritmo de aprendizado para redes neurais artificiais multicamadas, ele contribuiu significativamente para o sucesso do aprendizado profundo nos anos 2000 e 2010, uma vez que o poder de computação avançou o suficiente para acomodar o treinamento de grandes redes.

1969 Marvin Minsky e Seymour Papert publicam Perceptrons: uma introdução à computação Geometria, destacando as limitações das redes neurais simples. Em uma edição ampliada publicada em 1988, eles responderam a alegações de que suas conclusões de 1969 reduziram significativamente o financiamento para a pesquisa de redes neurais: “Nossa versão é que o progresso já havia praticamente parado por causa da falta de teorias básicas adequadas ... em meados de Na década de 1960, houve muitos experimentos com perceptrons, mas ninguém foi capaz de explicar por que eles eram capazes de reconhecer certos tipos de padrões e não outros. ”

1970 O primeiro robô antropomórfico, o WABOT-1, é construído na Universidade Waseda, no Japão. Consistia em um sistema de controle de membros, um sistema de visão e um sistema de conversação.

1972 MYCIN, um dos primeiros sistemas especialistas para identificar bactérias que causam infecções graves e recomendar antibióticos, é desenvolvido na Universidade de Stanford.

1973 James Lighthill relata ao British Science Research Council sobre a pesquisa de inteligência artificial do estado, concluindo que "em nenhuma parte do campo as descobertas feitas até agora produziram o maior impacto que foi então prometido", levando a uma redução drástica do apoio governamental à pesquisa de IA .

1976 O cientista da computação Raj Reddy publica "Speech Recognition by Machine: A Review" no Processos do IEEE, resumindo o trabalho inicial sobre Processamento de Linguagem Natural (PNL).

1978 O programa XCON (eXpert CONfigurer), um sistema especialista baseado em regras que auxilia no pedido de computadores VAX da DEC, selecionando automaticamente os componentes com base nos requisitos do cliente, é desenvolvido na Carnegie Mellon University.

1979 O Stanford Cart atravessa com sucesso uma sala cheia de cadeiras sem intervenção humana em cerca de cinco horas, tornando-se um dos primeiros exemplos de um veículo autônomo.

1980 Wabot-2 é construído na Universidade Waseda, no Japão, um músico robô humanóide capaz de se comunicar com uma pessoa, ler uma partitura musical e tocar melodias de dificuldade média em um órgão eletrônico.

1981 O Ministério do Comércio Internacional e da Indústria do Japão orçamenta US $ 850 milhões para o projeto do Computador de Quinta Geração. O projeto visava desenvolver computadores que pudessem conversar, traduzir línguas, interpretar imagens e raciocinar como seres humanos.

1984 Sonhos elétricos é lançado, um filme sobre um triângulo amoroso entre um homem, uma mulher e um computador pessoal.

1984 Na reunião anual da AAAI, Roger Schank e Marvin Minsky alertam sobre a chegada do "AI Winter", prevendo um estouro imanente da bolha de IA (que aconteceu três anos depois), semelhante à redução no investimento em IA e financiamento de pesquisa em meados da década de 1970.

1986 Primeiro carro sem motorista, uma van Mercedes-Benz equipada com câmeras e sensores, construída na Universidade Bundeswehr em Munique sob a direção de Ernst Dickmanns, dirige até 55 mph em ruas vazias.

Outubro de 1986 David Rumelhart, Geoffrey Hinton e Ronald Williams publicam "Representações de aprendizagem por erros de propagação reversa", em que descrevem "um novo procedimento de aprendizagem, propagação reversa, para redes de unidades semelhantes a neurônios".

1987 o vídeo Knowledge Navigator, que acompanha o discurso do CEO da Apple, John Sculley, na Educom, prevê um futuro no qual "os aplicativos de conhecimento seriam acessados ​​por agentes inteligentes trabalhando em redes conectadas a grandes quantidades de informações digitalizadas."

1988 Judea Pearl publica Raciocínio Probabilístico em Sistemas Inteligentes. Sua citação do Prêmio Turing de 2011 diz: “Judea Pearl criou a base representacional e computacional para o processamento de informações sob incerteza. Ele é creditado com a invenção das redes bayesianas, um formalismo matemático para definir modelos complexos de probabilidade, bem como os principais algoritmos usados ​​para inferência nesses modelos. Este trabalho não só revolucionou o campo da inteligência artificial, mas também se tornou uma ferramenta importante para muitos outros ramos da engenharia e das ciências naturais. ”

1988 Rollo Carpenter desenvolve o chat-bot Jabberwacky para "simular um bate-papo humano natural de uma maneira interessante, divertida e bem-humorada". É uma das primeiras tentativas de criar inteligência artificial por meio da interação humana.

1988 Membros da IBM T.J. O Watson Research Center publica "Uma abordagem estatística para tradução de idiomas", anunciando a mudança de métodos baseados em regras para métodos probabilísticos de tradução automática e refletindo uma mudança mais ampla para "aprendizado de máquina" com base na análise estatística de exemplos conhecidos, não compreensão e "compreensão ”Da tarefa em mãos (o projeto Candide da IBM, traduzido com sucesso entre o inglês e o francês, foi baseado em 2,2 milhões de pares de sentenças, principalmente de procedimentos bilíngues do parlamento canadense).

1988 Marvin Minsky e Seymour Papert publicam uma edição expandida de seu livro de 1969 Perceptrons. Em “Prólogo: Uma Visão de 1988” eles escreveram: “Uma razão pela qual o progresso tem sido tão lento neste campo é que os pesquisadores não familiarizados com sua história continuaram a cometer muitos dos mesmos erros que outros cometeram antes deles.”

1989 Yann LeCun e outros pesquisadores da AT & ampT Bell Labs aplicam com sucesso um algoritmo de retropropagação a uma rede neural multicamadas, reconhecendo códigos postais escritos à mão. Dadas as limitações de hardware na época, levou cerca de 3 dias (ainda uma melhoria significativa em relação aos esforços anteriores) para treinar a rede.

1990 Rodney Brooks publica “Elefantes não jogam xadrez”, propondo uma nova abordagem para IA - construção de sistemas inteligentes, especificamente robôs, a partir do zero e com base na interação física contínua com o meio ambiente: “O mundo é o seu melhor modelo ... O truque é senti-lo apropriadamente e com frequência suficiente. ”

1993 Vernor Vinge publica “The Coming Technological Singularity”, no qual prevê que “dentro de trinta anos, teremos os meios tecnológicos para criar inteligência sobre-humana. Logo depois, a era humana terminará. ”

1995 Richard Wallace desenvolve o chatbot A.L.I.C.E (Artificial Linguistic Internet Computer Entity), inspirado no programa ELIZA de Joseph Weizenbaum, mas com a adição de coleta de dados de amostra de linguagem natural em uma escala sem precedentes, possibilitada pelo advento da web.

1997 Sepp Hochreiter e Jürgen Schmidhuber propõem Long Short-Term Memory (LSTM), um tipo de rede neural recorrente usada hoje em reconhecimento de caligrafia e reconhecimento de fala.

1997 O Deep Blue se torna o primeiro programa de computador para jogar xadrez a vencer um campeão mundial de xadrez.

1998 Dave Hampton e Caleb Chung criam Furby, o primeiro robô doméstico ou de estimação.

1998 Yann LeCun, Yoshua Bengio e outros publicam artigos sobre a aplicação de redes neurais para reconhecimento de caligrafia e otimização da retropropagação.

2000 Cynthia Breazeal do MIT desenvolve Kismet, um robô que pode reconhecer e simular emoções.

2000 O robô ASIMO da Honda, um robô humanóide com inteligência artificial, é capaz de andar tão rápido quanto um humano, entregando bandejas aos clientes em um restaurante.

2001 A.I. Inteligência artificial é lançado, um filme de Steven Spielberg sobre David, um andróide infantil exclusivamente programado com a capacidade de amar.

2004 O primeiro DARPA Grand Challenge, uma competição de prêmios para veículos autônomos, é realizado no Deserto de Mojave. Nenhum dos veículos autônomos terminou a rota de 150 milhas.

2006 Oren Etzioni, Michele Banko e Michael Cafarella cunharam o termo "leitura de máquina", definindo-o como uma "compreensão autônoma de texto inerentemente não supervisionada".

2006 Geoffrey Hinton publica "Learning Multiple Layers of Representation", resumindo as idéias que levaram a "redes neurais multicamadas que contêm conexões de cima para baixo e treinando-as para gerar dados sensoriais em vez de classificá-los", ou seja, as novas abordagens para aprofundar Aprendendo.

2007 Fei Fei Li e colegas da Universidade de Princeton começam a montar o ImageNet, um grande banco de dados de imagens anotadas projetado para auxiliar na pesquisa de software de reconhecimento visual de objetos.

2009 Rajat Raina, Anand Madhavan e Andrew Ng publicam "Aprendizagem profunda não supervisionada em larga escala usando processadores gráficos", argumentando que "os processadores gráficos modernos ultrapassam em muito as capacidades computacionais de CPUs multicore e têm o potencial de revolucionar a aplicabilidade de métodos de aprendizagem não supervisionados profundos . ”

2009 Google começa a desenvolver, em segredo, um carro sem motorista. Em 2014, foi o primeiro a passar, em Nevada, um teste de direção autônomo do estado dos EUA.

2009 Cientistas da computação do Intelligent Information Laboratory da Northwestern University desenvolvem o Stats Monkey, um programa que escreve notícias esportivas sem intervenção humana.

2010 Lançamento do ImageNet Large Scale Visual Recognition Challenge (ILSVCR), uma competição anual de reconhecimento de objetos de IA.

2011 Uma rede neural convolucional vence a competição alemã de reconhecimento de sinais de trânsito com 99,46% de precisão (vs. humanos em 99,22%).

O Watson 2011, um computador de resposta a perguntas em linguagem natural, concorre em Perigo! e derrota dois ex-campeões.

2011 Pesquisadores do IDSIA na Suíça relatam uma taxa de erro de 0,27% no reconhecimento de caligrafia usando redes neurais convolucionais, uma melhoria significativa em relação à taxa de erro de 0,35% -0,40% em anos anteriores.

Junho de 2012 Jeff Dean e Andrew Ng relatam um experimento no qual eles mostraram uma rede neural muito grande de 10 milhões de imagens não rotuladas tiradas aleatoriamente de vídeos do YouTube e, “para nossa diversão, um de nossos neurônios artificiais aprendeu a responder fortemente às imagens de. gatos."

Outubro de 2012 Uma rede neural convolucional projetada por pesquisadores da Universidade de Toronto atinge uma taxa de erro de apenas 16% no Desafio de Reconhecimento Visual em Grande Escala da ImageNet, uma melhoria significativa em relação à taxa de erro de 25% alcançada pela melhor entrada no ano anterior.

Março de 2016 AlphaGo do Google DeepMind derrotou o campeão de Go Lee Sedol.

A Web (especialmente a Wikipedia) é uma grande fonte para a história da inteligência artificial. Outras fontes importantes incluem Nils Nilsson, A busca pela inteligência artificial: uma história de ideias e realizações Stuart Russell e Peter Norvig, Inteligência Artificial: Uma Abordagem Moderna Pedro Domingos, O algoritmo mestre: como a busca pela máquina de aprendizado definitiva vai refazer nosso mundo e Inteligência Artificial e Vida em 2030. Comente sobre omissões inadvertidas e imprecisões.


114 marcos na história da inteligência artificial (IA)

Sessenta e cinco anos atrás, 10 cientistas da computação se reuniram em Dartmouth, NH, para um workshop sobre inteligência artificial, definido um ano antes na proposta do workshop como “fazer uma máquina se comportar de maneiras que seriam chamadas de inteligentes se um ser humano fosse assim comportando-se. ”

Foi o evento que "iniciou a IA como uma disciplina de pesquisa", que cresceu para abranger várias abordagens, da IA ​​simbólica das décadas de 1950 e 1960 à análise estatística e aprendizado de máquina das décadas de 1970 e 1980 até o aprendizado profundo de hoje, a análise estatística de “big data”. Mas a preocupação em desenvolver métodos práticos para fazer as máquinas se comportarem como se fossem humanos surgiu já há 7 séculos.

HAL (computador ALgorítmico programado heuristicamente) 9000, uma inteligência geral artificial senciente. [+] computador e estrela do filme de 1968 2001: Uma Odisséia no Espaço

1308, o poeta e teólogo catalão Ramon Llull publica Ars generalis ultima (The Ultimate General Art), aperfeiçoando ainda mais seu método de uso de meios mecânicos baseados em papel para criar novos conhecimentos a partir de combinações de conceitos.

1666 O matemático e filósofo Gottfried Leibniz publica Dissertatio de arte combinatoria (Sobre a Arte Combinatória), seguindo Ramon Llull ao propor um alfabeto do pensamento humano e argumentar que todas as idéias nada mais são do que combinações de um número relativamente pequeno de conceitos simples.

1726 Jonathan Swift publica As Viagens de Gulliver, que inclui uma descrição do Motor, uma máquina na ilha de Laputa (e uma paródia das idéias de Lúlio): "um projeto para melhorar o conhecimento especulativo por meio de operações práticas e mecânicas". Usando este "artifício", "a pessoa mais ignorante a um custo razoável, e com um pouco de trabalho corporal, pode escrever livros de filosofia, poesia, politikos, direito, matemática e teologia, com a mínima ajuda de gênio ou estudo. "

Esta startup está usando computação quântica e IA para reduzir o tempo de descoberta de drogas de 3 anos para 4 meses

Andrew Ng lança uma campanha para IA centrada em dados

Esta startup de IA é a próxima Pixar?

1755 Samuel Johnson define inteligência no Um Dicionário da Língua Inglesa como "Comércio de informações sobre comunicação mútua conta de coisas distantes ou discretas."

1763 Thomas Bayes desenvolve uma estrutura para raciocinar sobre a probabilidade de eventos. A inferência bayesiana se tornará uma abordagem líder em aprendizado de máquina.

1854 George Boole argumenta que o raciocínio lógico pode ser executado sistematicamente da mesma maneira que resolver um sistema de equações.

1865 Richard Millar Devens descreve no Cyclopædia of Commercial and Business Anedotes como o banqueiro Sir Henry Furnese lucrou ao receber e agir com base nas informações anteriores aos seus concorrentes: “Em toda a Holanda, Flandres, França e Alemanha, ele manteve uma linha completa e perfeita de inteligência de negócios”.

1898 Em uma exposição elétrica no recém-concluído Madison Square Garden, Nikola Tesla demonstra a primeira embarcação controlada por rádio do mundo. O barco foi equipado com, como Tesla descreveu, "uma mente emprestada".

1910 Os advogados belgas Paul Otlet e Henri La Fontaine estabelecem a Mundaneum onde eles queriam reunir todo o conhecimento do mundo e classificá-lo de acordo com sua Classificação Decimal Universal.

1914 O engenheiro espanhol Leonardo Torres y Quevedo demonstra a primeira máquina de jogar xadrez, capaz de jogos finais de rei e torre contra rei sem qualquer intervenção humana.

1921 O escritor tcheco Karel Čapek introduz a palavra "robô" em sua peça R.U.R. (Robôs Universais de Rossum). A palavra "robô" vem da palavra "robota" (trabalho).

1925 Houdina Radio Control lança um carro sem motorista controlado por rádio, viajando pelas ruas da cidade de Nova York.

1927 O filme de ficção científica Metrópole é libertado. Ele apresenta um dublê de robô de uma camponesa, Maria, que desencadeia o caos em Berlim de 2026 - foi o primeiro robô retratado no filme, inspirando o visual Art Déco de C-3PO em Guerra das Estrelas.

1929 Makoto Nishimura projeta Gakutensoku, japonês para "aprender com as leis da natureza", o primeiro robô construído no Japão. Ele poderia mudar sua expressão facial e mover a cabeça e as mãos por meio de um mecanismo de pressão de ar.

1937 O escritor britânico de ficção científica HG Wells prediz que "toda a memória humana pode ser, e provavelmente em pouco tempo, tornada acessível a todos os indivíduos" e que "qualquer aluno, em qualquer parte do mundo, será capaz de se sentar com seu projetor [microfilme] em seu próprio estúdio para sua conveniência para examinar qualquer livro, qualquer documento, em uma réplica exata. "

1943 Warren S. McCulloch e Walter Pitts publicam "Um Cálculo Lógico das Idéias Imanentes na Atividade Nervosa" no Boletim de Biofísica Matemática. Este influente artigo, no qual eles discutiram redes de "neurônios" artificiais idealizados e simplificados e como eles podem realizar funções lógicas simples, se tornará a inspiração para "redes neurais" baseadas em computador (e mais tarde "aprendizado profundo") e sua descrição popular como “imitando o cérebro”.

1947 O estatístico John W. Tukey inventa o termo “bit” para designar um dígito binário, uma unidade de informação armazenada em um computador.

1949 Edmund Berkeley publica Cérebros gigantes: ou máquinas que pensam no qual ele escreve: “Recentemente, tem havido muitas notícias sobre estranhas máquinas gigantes que podem manipular informações com vasta velocidade e habilidade .... Essas máquinas são semelhantes ao que um cérebro seria se fosse feito de hardware e fio em vez de carne e nervos ... Uma máquina pode lidar com informações - ela pode calcular, concluir e escolher - pode realizar operações razoáveis ​​com informações. Uma máquina, portanto, pode pensar. ”

1949 Donald Hebb publica Organização do comportamento: uma teoria neuropsicológica no qual ele propõe uma teoria sobre aprendizagem baseada em conjecturas sobre redes neurais e a capacidade das sinapses de se fortalecer ou enfraquecer ao longo do tempo.

1950 Claude Shannon, "Programando um Computador para Jogar Xadrez", é o primeiro artigo publicado sobre o desenvolvimento de um programa de computador para jogar xadrez.

1950 Alan Turing publica “Computing Machinery and Intelligence” em que ele propõe "o jogo da imitação" que mais tarde se tornará conhecido como o "Teste de Turing".

1951 Marvin Minsky e Dean Edmunds constroem SNARC (Calculadora de Reforço Analógico Neural Estocástico), a primeira rede neural artificial, usando 3000 tubos de vácuo para simular uma rede de 40 neurônios.

1952 Arthur Samuel desenvolve o primeiro programa de jogo de damas e o primeiro programa de computador a aprender por conta própria.

31 de agosto de 1955 O termo "inteligência artificial" é cunhado em uma proposta para um "estudo de inteligência artificial de 2 meses e 10 homens" apresentado por John McCarthy (Dartmouth College), Marvin Minsky (Harvard University), Nathaniel Rochester (IBM), e Claude Shannon (Bell Telephone Laboratories). O workshop, que ocorreu um ano depois, em julho e agosto de 1956, é geralmente considerado a data de nascimento oficial do novo campo.

Dezembro de 1955 Herbert Simon e Allen Newell desenvolvem o Logic Theorist, o primeiro programa de inteligência artificial, que eventualmente provaria 38 dos primeiros 52 teoremas em Whitehead e Russell's Principia Mathematica.

1957 Frank Rosenblatt desenvolve o Perceptron, uma das primeiras redes neurais artificiais que permitem o reconhecimento de padrões com base em uma rede de aprendizagem por computador de duas camadas. O jornal New York Times relatou que o Perceptron é "o embrião de um computador eletrônico que [a Marinha] espera que seja capaz de andar, falar, ver, escrever, se reproduzir e ter consciência de sua existência". O Nova-iorquino chamou de uma "máquina notável ... capaz do que equivale a pensamento."

1957 no filme Conjunto de mesa, quando um “engenheiro de métodos” (Spencer Tracy) instala o computador fictício EMERAC, a bibliotecária chefe (Katharine Hepburn) diz a seus ansiosos colegas no departamento de pesquisa: “Eles não podem construir uma máquina para fazer nosso trabalho, há muitos -referências neste lugar. ”

1958 Hans Peter Luhn publica "A Business Intelligence System" no IBM Journal of Research and Development. Ele descreve um "método automático para fornecer serviços de conscientização atuais para cientistas e engenheiros."

1958 John McCarthy desenvolve a linguagem de programação Lisp, que se torna a linguagem de programação mais popular usada na pesquisa de inteligência artificial.

1959 Arthur Samuel cunha o termo “aprendizado de máquina”, relatando sobre a programação de um computador “para que ele aprenda a jogar um jogo de damas melhor do que aquele que pode ser jogado pela pessoa que escreveu o programa”.

1959 Oliver Selfridge publica "Pandemonium: A paradigm for learning" no Anais do Simpósio de Mecanização de Processos de Pensamento, no qual ele descreve um modelo para um processo pelo qual os computadores podem reconhecer padrões que não foram especificados com antecedência.

1959 John McCarthy publica "Programs with Common Sense" no Anais do Simpósio de Mecanização de Processos de Pensamento, no qual ele descreve o Conselheiro, um programa para resolver problemas por meio da manipulação de frases em linguagens formais com o objetivo final de fazer programas “que aprendam com sua experiência de forma tão eficaz quanto os humanos”.

1961 O primeiro robô industrial, Unimate, começa a trabalhar em uma linha de montagem em uma fábrica da General Motors em Nova Jersey.

1961 James Slagle desenvolve SAINT (Symbolic Automatic INTegrator), um programa heurístico que resolvia problemas de integração simbólica no cálculo do calouro.

O estatístico de 1962 John W. Tukey escreve no Futuro da Análise de Dados: “A análise de dados, e as partes das estatísticas que aderem a ela, devem ... assumir as características da ciência em vez das da matemática ... a análise de dados é intrinsecamente uma ciência empírica.”

1964 Daniel Bobrow conclui sua dissertação de doutorado no MIT intitulada “Entrada de linguagem natural para um sistema de solução de problemas de computador” e desenvolve STUDENT, um programa de computador para compreensão de linguagem natural.

16 de agosto de 1964 Isaac Asimov escreve no New York Times: “A exposição I.B.M. na [Feira Mundial de 1964] ... é dedicada aos computadores, que são mostrados em toda a sua incrível complexidade, principalmente na tarefa de tradução do russo para o inglês. Se as máquinas são tão inteligentes hoje, o que pode não estar nas obras daqui a 50 anos? Serão esses computadores, muito miniaturizados, que servirão de ‘cérebros’ de robôs ... As comunicações se tornarão visuais e auditivas e você verá e ouvirá a pessoa para quem telefona. A tela pode ser usada não apenas para ver as pessoas para quem você liga, mas também para estudar documentos e fotografias e ler trechos de livros. ”

1965 Herbert Simon prevê que "as máquinas serão capazes, dentro de vinte anos, de fazer qualquer trabalho que um homem possa fazer".

1965 Hubert Dreyfus publica "Alchemy and AI", argumentando que a mente não é como um computador e que havia limites além dos quais a AI não progrediria.

1965 I.J. Good escreve em "Especulações sobre a primeira máquina ultrainteligente" que "a primeira máquina ultrainteligente é a última invenção que o homem precisa fazer, desde que a máquina seja dócil o suficiente para nos dizer como mantê-la sob controle."

1965 Joseph Weizenbaum desenvolve ELIZA, um programa interativo que dialoga em inglês sobre qualquer assunto. Weizenbaum, que queria demonstrar a superficialidade da comunicação entre o homem e a máquina, ficou surpreso com a quantidade de pessoas que atribuíram sentimentos humanos ao programa de computador.

1965 Edward Feigenbaum, Bruce G. Buchanan, Joshua Lederberg e Carl Djerassi começam a trabalhar no DENDRAL na Universidade de Stanford. O primeiro sistema especialista, automatizou o processo de tomada de decisão e o comportamento de resolução de problemas dos químicos orgânicos, com o objetivo geral de estudar a formação de hipóteses e construir modelos de indução empírica na ciência.

1966 O robô Shakey é o primeiro robô móvel de uso geral a ser capaz de raciocinar sobre suas próprias ações. Em uma vida artigo da revista 1970 sobre esta “primeira pessoa eletrônica”, Marvin Minsky é citado dizendo com “certeza”: “Em três a oito anos teremos uma máquina com a inteligência geral de um ser humano médio.”

1968 O filme 2001: Space Odyssey é lançado, apresentando HAL 9000, um computador consciente.

1968 Terry Winograd desenvolve SHRDLU, um dos primeiros programas de computador para compreensão de linguagem natural.

1969 Arthur Bryson e Yu-Chi Ho descrevem a retropropagação como um método de otimização de sistema dinâmico de vários estágios. Um algoritmo de aprendizado para redes neurais artificiais multicamadas, ele contribuiu significativamente para o sucesso do aprendizado profundo nos anos 2000 e 2010, uma vez que o poder de computação avançou o suficiente para acomodar o treinamento de grandes redes.

1969 Marvin Minsky e Seymour Papert publicam Perceptrons: uma introdução à computação Geometria, destacando as limitações das redes neurais simples. Em uma edição ampliada publicada em 1988, eles responderam a alegações de que suas conclusões de 1969 reduziram significativamente o financiamento para a pesquisa de redes neurais: “Nossa versão é que o progresso já havia praticamente parado por causa da falta de teorias básicas adequadas ... em meados de Na década de 1960, houve muitos experimentos com perceptrons, mas ninguém foi capaz de explicar por que eles eram capazes de reconhecer certos tipos de padrões e não outros. ”

1970 O primeiro robô antropomórfico, o WABOT-1, é construído na Universidade Waseda, no Japão. Consistia em um sistema de controle de membros, um sistema de visão e um sistema de conversação.

1971 Michael S. Scott Morton publica Sistemas de decisão de gestão: suporte baseado em computador para tomada de decisão, resumindo seus estudos sobre as várias maneiras pelas quais os computadores e modelos analíticos podem ajudar os gerentes na tomada de decisões importantes.

1971 Arthur Miller escreve em The Assault on Privacy que “Muitos manipuladores de informações parecem medir um homem pelo número de bits de capacidade de armazenamento que seu dossiê irá ocupar”.

1972 MYCIN, um dos primeiros sistemas especialistas para identificar bactérias que causam infecções graves e recomendar antibióticos, é desenvolvido na Universidade de Stanford.

1973 James Lighthill relata ao British Science Research Council sobre a pesquisa de inteligência artificial do estado, concluindo que "em nenhuma parte do campo as descobertas feitas até agora produziram o maior impacto que foi então prometido", levando a uma redução drástica do apoio governamental à pesquisa de IA .

1976 O cientista da computação Raj Reddy publica "Speech Recognition by Machine: A Review" no Processos do IEEE, resumindo o trabalho inicial sobre Processamento de Linguagem Natural (PNL).

1978 O programa XCON (eXpert CONfigurer), um sistema especialista baseado em regras que auxilia no pedido de computadores VAX da DEC, selecionando automaticamente os componentes com base nos requisitos do cliente, é desenvolvido na Carnegie Mellon University.

1979 O Stanford Cart atravessa com sucesso uma sala cheia de cadeiras sem intervenção humana em cerca de cinco horas, tornando-se um dos primeiros exemplos de um veículo autônomo.

1979 Kunihiko Fukushima desenvolve o neocognitron, uma rede neural artificial hierárquica de várias camadas.

1980 I.A. A Tjomsland aplica a Primeira Lei de Parkinson ao setor de armazenamento: “Os dados se expandem para preencher o espaço disponível.”

1980 Wabot-2 é construído na Universidade Waseda, no Japão, um músico robô humanóide capaz de se comunicar com uma pessoa, ler uma partitura musical e tocar melodias de dificuldade média em um órgão eletrônico.

1981 O Ministério do Comércio Internacional e da Indústria do Japão orçamenta US $ 850 milhões para o projeto do Computador de Quinta Geração. O projeto visava desenvolver computadores que pudessem conversar, traduzir línguas, interpretar imagens e raciocinar como seres humanos.

1981 A Associação Chinesa de Inteligência Artificial (CAAI) é estabelecida.

1984 Sonhos elétricos é lançado, um filme sobre um triângulo amoroso entre um homem, uma mulher e um computador pessoal.

1984 Na reunião anual da AAAI, Roger Schank e Marvin Minsky alertam sobre a chegada do "AI Winter", prevendo um estouro imanente da bolha de IA (que aconteceu três anos depois), semelhante à redução no investimento em IA e financiamento de pesquisa em meados da década de 1970.

1985 O primeiro sistema de inteligência de negócios é desenvolvido para Procter & amp Gamble pela Metaphor Computer Systems para vincular informações de vendas e dados de scanner de varejo.

1986 Primeiro carro sem motorista, uma van Mercedes-Benz equipada com câmeras e sensores, construída na Universidade Bundeswehr em Munique sob a direção de Ernst Dickmanns, dirige até 55 mph em ruas vazias.

Outubro de 1986 David Rumelhart, Geoffrey Hinton e Ronald Williams publicam "Representações de aprendizagem por erros de retropropagação", em que descrevem "um novo procedimento de aprendizagem, retropropagação, para redes de unidades semelhantes a neurônios".

1987 o vídeo Knowledge Navigator, que acompanha o discurso do CEO da Apple, John Sculley, na Educom, prevê um futuro no qual "os aplicativos de conhecimento seriam acessados ​​por agentes inteligentes trabalhando em redes conectadas a grandes quantidades de informações digitalizadas."

1988 Judea Pearl publica Raciocínio Probabilístico em Sistemas Inteligentes. Sua citação do Prêmio Turing de 2011 diz: “Judea Pearl criou a base representacional e computacional para o processamento de informações sob incerteza. Ele é creditado com a invenção das redes bayesianas, um formalismo matemático para definir modelos complexos de probabilidade, bem como os principais algoritmos usados ​​para inferência nesses modelos. Este trabalho não só revolucionou o campo da inteligência artificial, mas também se tornou uma ferramenta importante para muitos outros ramos da engenharia e das ciências naturais. ”

1988 Rollo Carpenter desenvolve o chat-bot Jabberwacky para "simular um bate-papo humano natural de uma maneira interessante, divertida e bem-humorada." É uma das primeiras tentativas de criar inteligência artificial por meio da interação humana.

1988 Membros da IBM T.J. O Watson Research Center publica "Uma abordagem estatística para tradução de idiomas", anunciando a mudança de métodos baseados em regras para métodos probabilísticos de tradução automática e refletindo uma mudança mais ampla para "aprendizado de máquina" com base na análise estatística de exemplos conhecidos, não compreensão e "compreensão ”Da tarefa em mãos (o projeto Candide da IBM, traduzido com sucesso entre o inglês e o francês, foi baseado em 2,2 milhões de pares de sentenças, principalmente de procedimentos bilíngues do parlamento canadense).

1988 Marvin Minsky e Seymour Papert publicam uma edição expandida de seu livro de 1969 Perceptrons. Em “Prólogo: Uma Visão de 1988” eles escreveram: “Uma razão pela qual o progresso tem sido tão lento neste campo é que os pesquisadores não familiarizados com sua história continuaram a cometer muitos dos mesmos erros que outros cometeram antes deles.”

1989 Yann LeCun e outros pesquisadores da AT & ampT Bell Labs aplicam com sucesso um algoritmo de retropropagação a uma rede neural multicamadas, reconhecendo códigos postais escritos à mão. Dadas as limitações de hardware na época, levou cerca de 3 dias para treinar a rede, ainda uma melhoria significativa em relação aos esforços anteriores.

Março de 1989, Tim Berners-Lee escreve “Gerenciamento de informações: uma proposta” e o distribui no CERN.

1990 Rodney Brooks publica “Elefantes não jogam xadrez”, propondo uma nova abordagem para IA - construção de sistemas inteligentes, especificamente robôs, a partir do zero e com base na interação física contínua com o meio ambiente: “O mundo é o seu melhor modelo ... O truque é senti-lo apropriadamente e com frequência suficiente. ”

Outubro de 1990 Tim Berners-Lee começa a escrever código para um programa cliente, um navegador / editor que ele chama de WorldWideWeb, em seu novo computador NeXT.

1993 Vernor Vinge publica “The Coming Technological Singularity”, no qual prevê que “dentro de trinta anos, teremos os meios tecnológicos para criar inteligência sobre-humana. Logo depois, a era humana terminará. ”

Setembro de 1994 Semana de negócios publica uma matéria de capa sobre “Marketing de banco de dados”: “As empresas estão coletando montanhas de informações sobre você, analisando-as para prever a probabilidade de você comprar um produto e usando esse conhecimento para criar uma mensagem de marketing precisamente calibrada para que você faça isso … muitas empresas acreditam que não têm escolha a não ser enfrentar a fronteira do marketing de banco de dados ”.

1995 Richard Wallace desenvolve o chatbot A.L.I.C.E (Artificial Linguistic Internet Computer Entity), inspirado no programa ELIZA de Joseph Weizenbaum, mas com a adição de coleta de dados de amostra de linguagem natural em uma escala sem precedentes, possibilitada pelo advento da web.

1997 Sepp Hochreiter e Jürgen Schmidhuber propõem Long Short-Term Memory (LSTM), um tipo de rede neural recorrente usada hoje em reconhecimento de caligrafia e reconhecimento de fala.

Outubro de 1997 Michael Cox e David Ellsworth publicam “Paginação por demanda controlada por aplicativo para visualização out-of-core” nos Proceedings of the IEEE 8th conference on Visualization. Eles começam o artigo com “A visualização oferece um desafio interessante para os sistemas de computador: os conjuntos de dados geralmente são muito grandes, sobrecarregando as capacidades da memória principal, do disco local e até do disco remoto. Chamamos isso de problema de big data. Quando os conjuntos de dados não cabem na memória principal (no núcleo), ou quando eles não cabem nem mesmo no disco local, a solução mais comum é adquirir mais recursos. ” É o primeiro artigo na biblioteca digital ACM a usar o termo "big data".

1997 O Deep Blue se torna o primeiro programa de computador para jogar xadrez a vencer um campeão mundial de xadrez.

1998 O primeiro índice do Google tem 26 milhões de páginas da web.

1998 Dave Hampton e Caleb Chung criam Furby, o primeiro robô doméstico ou de estimação.

1998 Yann LeCun, Yoshua Bengio e outros publicam artigos sobre a aplicação de redes neurais para reconhecimento de caligrafia e otimização da retropropagação.

Outubro de 1998 K.G. Coffman e Andrew Odlyzko publicam "The Size and Growth Rate of the Internet". Eles concluem que “a taxa de crescimento do tráfego na Internet pública, embora menor do que muitas vezes é citada, ainda é cerca de 100% ao ano, muito maior do que para o tráfego em outras redes. Portanto, se as tendências atuais de crescimento continuarem, o tráfego de dados nos EUA ultrapassará o tráfego de voz por volta do ano 2002 e será dominado pela Internet. ”

2000 O índice da web do Google atinge a marca de um bilhão.

2000 Cynthia Breazeal do MIT desenvolve Kismet, um robô que pode reconhecer e simular emoções.

2000 O robô ASIMO da Honda, um robô humanóide com inteligência artificial, é capaz de andar tão rápido quanto um humano, entregando bandejas aos clientes em um restaurante.

Outubro de 2000 Peter Lyman e Hal R. Varian na UC Berkeley publicam "How Much Information?" É o primeiro estudo abrangente a quantificar, em termos de armazenamento de computador, a quantidade total de informações novas e originais (sem contar as cópias) criadas no mundo anualmente e armazenadas em quatro suportes físicos: papel, filme, óptico (CDs e DVDs), e magnético. O estudo descobriu que, em 1999, o mundo produziu cerca de 1,5 exabytes de informações exclusivas, ou cerca de 250 megabytes para cada homem, mulher e criança na Terra. Ele também descobre que "uma vasta quantidade de informações exclusivas é criada e armazenada por indivíduos" (o que chama de "democratização dos dados") e que "não apenas a produção de informação digital é a maior no total, mas também a de crescimento mais rápido . ” Chamando essa descoberta de “domínio do digital”, Lyman e Varian afirmam que “mesmo hoje, a maioria das informações textuais 'nasce digital' e, em alguns anos, isso também será verdadeiro para as imagens”. Um estudo semelhante conduzido em 2003 pelos mesmos pesquisadores descobriu que o mundo produziu cerca de 5 exabytes de novas informações em 2002 e que 92% das novas informações eram armazenadas em mídia magnética, principalmente em discos rígidos.

2001 A.I. Inteligência artificial é lançado, um filme de Steven Spielberg sobre David, um andróide infantil exclusivamente programado com a capacidade de amar.

2003 Paro, um robô terapêutico bebê foca harpa projetado por Takanori Shibata do Intelligent System Research Institute da AIST do Japão é selecionado como finalista do "Best of COMDEX"

2004 O primeiro DARPA Grand Challenge, uma competição de prêmios para veículos autônomos, é realizado no Deserto de Mojave. Nenhum dos veículos autônomos terminou a rota de 150 milhas.

2006 Oren Etzioni, Michele Banko e Michael Cafarella cunharam o termo "leitura de máquina", definindo-o como uma "compreensão autônoma de texto inerentemente não supervisionada".

2006 Geoffrey Hinton publica "Learning Multiple Layers of Representation", resumindo as idéias que levaram a "redes neurais multicamadas que contêm conexões de cima para baixo e treinando-as para gerar dados sensoriais em vez de classificá-los", ou seja, as novas abordagens para aprofundar Aprendendo.

2006 o Conferência de Inteligência Artificial de Dartmouth: Os Próximos Cinqüenta Anos (AI @ 50), comemora o 50º aniversário da oficina de 1956. O diretor da conferência conclui: “Embora a IA tenha obtido muito sucesso nos últimos 50 anos, inúmeras divergências dramáticas permanecem no campo. Diferentes áreas de pesquisa freqüentemente não colaboram, pesquisadores utilizam diferentes metodologias e ainda não existe uma teoria geral de inteligência ou aprendizagem que una a disciplina. ”

2007 Fei-Fei Li e colegas da Universidade de Princeton começam a montar o ImageNet, um grande banco de dados de imagens anotadas projetado para auxiliar na pesquisa de software de reconhecimento visual de objetos.

2007 John F. Gantz, David Reinsel e outros pesquisadores da IDC lançam um white paper intitulado “The Expanding Digital Universe: A Forecast of Worldwide Information Growth through 2010.” É o primeiro estudo a estimar e prever a quantidade de dados digitais criados e replicados a cada ano. O IDC estima que, em 2006, o mundo criou 161 exabytes de dados e prevê que, entre 2006 e 2010, as informações adicionadas anualmente ao universo digital aumentarão mais de seis vezes, para 988 exabytes, ou dobrando a cada 18 meses. De acordo com as divulgações de 2010 e 2012 do mesmo estudo, a quantidade de dados digitais criados anualmente superou essa previsão, atingindo 1.227 exabytes em 2010 e crescendo para 2.837 exabytes em 2.012. Em 2020, o IDC estimou que 59.000 exabytes de dados serão criados, capturados, copiados e consumidos no mundo naquele ano.

Hal Varian de 2009, Economista-chefe do Google, disse ao McKinsey Quarterly: “Eu continuo dizendo que o trabalho sexy nos próximos dez anos será estatístico. As pessoas pensam que estou brincando, mas quem poderia imaginar que engenheiros de computação teriam sido o trabalho sexy dos anos 1990? A capacidade de obter dados - ser capaz de entendê-los, processá-los, extrair valor deles, visualizá-los, comunicá-los - será uma habilidade extremamente importante nas próximas décadas. ”

2009 Mike Driscoll escreve em “As três habilidades sensuais dos geeks de dados”: “… com a era dos dados sobre nós, aqueles que podem modelar, munge e comunicar dados visualmente - chame-nos de estatísticos ou geeks de dados - são uma mercadoria quente.”

2009 Rajat Raina, Anand Madhavan e Andrew Ng publicam "Aprendizagem profunda não supervisionada em larga escala usando processadores gráficos", argumentando que "os processadores gráficos modernos ultrapassam em muito as capacidades computacionais de CPUs multicore e têm o potencial de revolucionar a aplicabilidade de métodos de aprendizagem não supervisionados profundos . ”

2009 Google começa a desenvolver, em segredo, um carro sem motorista. Em 2014, foi o primeiro a passar, em Nevada, um teste de direção autônomo do estado dos EUA.

2009 Cientistas da computação do Intelligent Information Laboratory da Northwestern University desenvolvem o Stats Monkey, um programa que escreve notícias esportivas sem intervenção humana.

2010 Lançamento do ImageNet Large Scale Visual Recognition Challenge (ILSVCR), uma competição anual de reconhecimento de objetos de IA.

2010 Kenneth Cukier escreve em O economista Relatório especial ”Data, Data Everywhere“: ”… surgiu um novo tipo de profissional, o cientista de dados, que combina as habilidades de programador de software, estatístico e contador de histórias / artista para extrair pepitas de ouro escondidas sob montanhas de dados.”

2011 Martin Hilbert e Priscila Lopez publicam "A capacidade tecnológica do mundo para armazenar, comunicar e computar informações" em Ciência. Eles estimam que a capacidade de armazenamento de informações do mundo cresceu a uma taxa composta de crescimento anual de 25% ao ano entre 1986 e 2007. Eles também estimam que em 1986, 99,2% de toda a capacidade de armazenamento era analógica, mas em 2007, 94% da capacidade de armazenamento era digital, uma inversão completa de papéis (em 2002, o armazenamento digital de informações ultrapassou o não-digital pela primeira vez).

2011 Uma rede neural convolucional vence a competição alemã de reconhecimento de sinais de trânsito com 99,46% de precisão (vs. humanos em 99,22%).

O Watson 2011, um computador de resposta a perguntas em linguagem natural, concorre em Perigo! e derrota dois ex-campeões.

Pesquisadores de 2011 no IDSIA na Suíça relatório uma taxa de erro de 0,27% no reconhecimento de caligrafia usando redes neurais convolucionais, uma melhoria significativa em relação à taxa de erro de 0,35% -0,40% nos anos anteriores.

Junho de 2012 Jeff Dean e Andrew Ng relatam um experimento no qual eles mostraram uma rede neural muito grande de 10 milhões de imagens não rotuladas tiradas aleatoriamente de vídeos do YouTube e, “para nossa diversão, um de nossos neurônios artificiais aprendeu a responder fortemente às imagens de. gatos."

Setembro de 2012 Tom Davenport e D.J. Patil publicou "Cientista de dados: o trabalho mais sexy do século 21" no Harvard Business Review.

Outubro de 2012 Uma rede neural convolucional projetada por pesquisadores da Universidade de Toronto atinge uma taxa de erro de apenas 16% no Desafio de Reconhecimento Visual em Grande Escala da ImageNet, uma melhoria significativa em relação à taxa de erro de 25% alcançada pela melhor entrada no ano anterior.


Linha do tempo completa

Ano Tipo de evento Detalhes País / localização
Século 4 a.C. O filósofo grego Aristóteles inventa a lógica silogística, o primeiro sistema formal de raciocínio dedutivo. & # 918 e # 93
1 AC "1 ° de maio. Ano: Alexander Heron na antiguidade fazia autômatos com mecanismos mecânicos que trabalhavam com água e vapor." & # 919 e # 93
1206 "1206: Ebru İz Bin Rezzaz Al Jezeri, um dos pioneiros da ciência cibernética, criou máquinas automáticas controladas por água." & # 919 e # 93
1308 "O poeta e teólogo catalão Ramon Llull publica Ars generalis ultima (The Ultimate General Art), aperfeiçoando ainda mais seu método de usar meios mecânicos baseados em papel para criar novos conhecimentos a partir de combinações de conceitos." & # 9110 & # 93
1623 "1623: Wilhelm Schickard inventou um mecânico e uma calculadora capaz de quatro operações." & # 919 e # 93
1642 "Pascal criou a primeira máquina de calcular digital mecânica (1642)." & # 918 e # 93
1666 "O matemático e filósofo Gottfried Leibniz publica Dissertatio de arte combinatoria (Sobre a Arte Combinatória), seguindo Ramon Llull ao propor um alfabeto do pensamento humano e argumentando que todas as idéias nada mais são do que combinações de um número relativamente pequeno de conceitos simples." & # 9110 & # 93
1672 "1672: Gottfried Leibniz desenvolveu um sistema de contagem binária que forma a base abstrata dos computadores atuais." & # 919 e # 93
1726 "onathan Swift publica Gulliver's Travels, que inclui uma descrição da Engine, uma máquina na ilha de Laputa (e uma paródia das idéias de Llull):" um projeto para melhorar o conhecimento especulativo por meio de operações práticas e mecânicas. " , "" a pessoa mais ignorante com um encargo razoável e com um pouco de trabalho corporal pode escrever livros de filosofia, poesia, politikos, direito, matemática e teologia, com a mínima ajuda do gênio ou do estudo. "" & # 9110 & # 93
1763 "Thomas Bayes desenvolve uma estrutura para raciocinar sobre a probabilidade de eventos. A inferência bayesiana se tornará uma abordagem líder no aprendizado de máquina." & # 9110 & # 93
1801 "Joseph-Marie Jacquard inventou o tear Jacquard, a primeira máquina programável, com instruções em cartões perfurados (1801)." & # 918 e # 93
1854 "George Boole argumenta que o raciocínio lógico pode ser executado sistematicamente da mesma maneira que resolver um sistema de equações." & # 9110 & # 93 "George Boole desenvolveu uma álgebra binária que representa (algumas)" leis do pensamento ", publicada em The Laws of Thought (1854)." & # 918 e # 93
1863 "1863 - Samuel Butler sugeriu que a evolução darwiniana também se aplica às máquinas, e especula que um dia elas se tornarão conscientes e, eventualmente, suplantarão a humanidade. [24]" & # 9111 & # 93
1879 "Lógica proposicional moderna desenvolvida por Gottlob Frege em sua obra Begriffsschrift de 1879 e posteriormente esclarecida e expandida por Russell, Tarski, Gõdel, Church e outros." & # 918 e # 93
1898 "Em uma exposição elétrica no recém-concluído Madison Square Garden, Nikola Tesla faz uma demonstração da primeira embarcação controlada por rádio do mundo.O barco foi equipado com, como Tesla descreveu, "uma mente emprestada". "& # 9110 & # 93
1910 "Bertrand Russell e Alfred North Whitehead publicaram Principia Mathematica, que revolucionou a lógica formal. Russell, Ludwig Wittgenstein e Rudolf Carnap conduzem a filosofia à análise lógica do conhecimento." & # 918 e # 93
1912 "Torres y Quevedo construiu sua máquina de xadrez 'Ajedrecista', usando eletroímãs sob o tabuleiro para jogar a torre final e o rei contra o rei solitário, possivelmente o primeiro jogo de computador (1912)" & # 918 & # 93
1914 "O engenheiro espanhol Leonardo Torres y Quevedo demonstra a primeira máquina de jogar xadrez, capaz de jogos finais de rei e torre contra rei sem qualquer intervenção humana." & # 9110 & # 93
1921 "O escritor tcheco Karel Čapek introduz a palavra" robô "em sua peça R.U.R. (Robôs universais de Rossum). A palavra" robô "vem da palavra" robota "(trabalho)." & # 9110 & # 93
1925 "Houdina Radio Control lança um carro sem motorista controlado por rádio, viajando pelas ruas de Nova York." & # 9110 & # 93
1927 "É lançado o filme de ficção científica Metropolis. Apresenta um dublê de robô de uma camponesa, Maria, que desencadeia o caos em Berlim de 2026 - foi o primeiro robô retratado no filme, inspirando o visual Art Déco de C-3PO em Star Guerras. " & # 9110 & # 93
1929 "Makoto Nishimura projeta Gakutensoku, japonês para" aprender com as leis da natureza ", o primeiro robô construído no Japão. Ele poderia mudar sua expressão facial e mover sua cabeça e mãos por meio de um mecanismo de pressão de ar." & # 9110 & # 93
1931 "1931: Kurt Gödel introduziu a teoria da deficiência, que é chamada por seu próprio nome." & # 919 & # 93 "Em 1931, Goedel lançou as bases da Ciência da Computação Teórica e IA" & # 9112 & # 93
1936 "1936: Konrad Zuse desenvolveu um computador programável chamado Z1 chamado 64K memory." & # 919 e # 93
1936–1937 "Alan Turing propôs a máquina de Turing universal (1936-37)" & # 918 e # 93
1943 ". McCulloch e Pitts [1943] mostraram como um simples" neurônio formal "limiaring poderia ser a base para uma máquina de Turing-completa." & # 9113 & # 93 "Warren S. McCulloch e Walter Pitts publicam" A Logical Calculus of the Ideas Imanent in Nervous Activity "no Bulletin of Mathematical Biophysics. Este influente artigo, no qual eles discutiram redes de" neurônios "artificiais idealizados e simplificados e como eles podem executar funções lógicas simples, se tornará a inspiração para" redes neurais "baseadas em computador (e mais tarde "aprendizado profundo") e sua descrição popular como "imitando o cérebro". "& # 9110 & # 93" um primeiro modelo matemático e de computador do neurônio biológico (neurônio formal) foi desenvolvido por Warren McCulloch e Walter Pitts como já em 1943. " & # 913 & # 93 "O primeiro trabalho que agora é reconhecido como IA foi feito por Warren McCulloch e Walter pits em 1943. Eles propuseram um modelo de neurônios artificiais." & # 911 e # 93
1943 "Arturo Rosenblueth, Norbert Wiener e Julian Bigelow cunharam o termo" cibernética "em um jornal de 1943. Livro popular de Wiener com esse nome publicado em 1948." & # 918 e # 93
1943 "Emil Post prova que os sistemas de produção são um mecanismo computacional geral (1943). Veja o Capítulo 2 de Sistemas Especialistas Baseados em Regras para o uso de sistemas de produção em IA. Post também fez um trabalho importante sobre completude, inconsistência e teoria da prova." & # 918 e # 93
1943 ". Em 1943, o neurofisiologista Warren McCulloch da Universidade de Illinois e o matemático Walter Pitts da Universidade de Chicago publicaram um influente tratado sobre redes neurais e autômatos, segundo o qual cada neurônio no cérebro é um processador digital simples e o cérebro como um todo é uma forma de máquina de computação. "& # 9114 & # 93
1945 "George Polya publicou seu livro best-seller sobre pensamento heurístico, How to Solve It em 1945. Este livro introduziu o termo 'heurística' no pensamento moderno e influenciou muitos cientistas de IA." & # 918 e # 93
1945 "Vannevar Bush publicou As We May Think (Atlantic Monthly, julho de 1945) uma visão presciente do futuro na qual os computadores auxiliam os humanos em muitas atividades." & # 918 e # 93
1946 ": ENIAC (Integrador Numérico Eletrônico e Computador), o primeiro computador em uma sala de 30 toneladas, começou a funcionar." & # 919 e # 93
1948 "John von Neumann apresentou a ideia do programa autorreplicante" & # 919 e # 93
1949 "Edmund Berkeley publica Giant Brains: Or Machines That Think no qual escreve:“ Recentemente, tem havido muitas notícias sobre estranhas máquinas gigantes que podem lidar com informações com vasta velocidade e habilidade ... Essas máquinas são semelhantes ao que um cérebro faria seja se fosse feito de hardware e fio em vez de carne e nervos ... Uma máquina pode lidar com informações que pode calcular, concluir e escolher pode realizar operações razoáveis ​​com informações. Uma máquina, portanto, pode pensar. ”" & # 9110 & # 93
1949 "Donald Hebb publica Organização do Comportamento: Uma Teoria Neuropsicológica em que ele propõe uma teoria sobre a aprendizagem baseada em conjecturas sobre redes neurais e a capacidade das sinapses de se fortalecer ou enfraquecer com o tempo." & # 9110 & # 93 "Donald Hebb demonstrou uma regra de atualização para modificar a força da conexão entre os neurônios. Sua regra agora é chamada de aprendizagem Hebbian." & # 911 e # 93
1950 "O artigo“ Programando um Computador para Jogar Xadrez ”de Claude Shannon é o primeiro artigo publicado sobre o desenvolvimento de um programa de computador para jogar xadrez." & # 9110 & # 93
1950 "Alan Turing publica" Computing Machinery and Intelligence "em que propõe" o jogo de imitação "que mais tarde se tornará conhecido como o" Teste de Turing "." & # 9110 & # 93 ". Turing, por outro lado, levantou a questão de a possível inteligência de uma máquina pela primeira vez em seu famoso artigo de 1950 "Computing Machinery and Intelligence" e descreveu um "jogo de imitação", onde um humano deveria ser capaz de distinguir em um diálogo de teletipo se ele está falando com um homem ou uma máquina." & # 913 & # 93
1950 "Claude Shannon publicou uma análise detalhada do jogo de xadrez como pesquisa em" Programando um computador para jogar xadrez "(1950)." & # 918 e # 93
1951 "Marvin Minsky e Dean Edmunds construíram SNARC (Calculadora de Reforço Analógico Neural Estocástico), a primeira rede neural artificial, usando 3000 tubos de vácuo para simular uma rede de 40 neurônios." & # 9110 & # 93
1950 "Em um artigo da Scientific American de 1950, Claude Shannon argumentou que apenas um programa de inteligência artificial poderia jogar xadrez no computador" & # 9115 & # 93
1951 "1951: Os primeiros programas de inteligência artificial para o dispositivo Mark 1 foram escritos" & # 919 e # 93
1952 "Arthur Samuel desenvolve o primeiro programa de jogo de damas de computador e o primeiro programa de computador a aprender por conta própria." & # 9110 & # 93
1952 "Modelo Hodgkin-Huxley do cérebro como neurônios formando uma rede elétrica, com neurônios individuais disparando em pulsos do tipo tudo ou nada (liga / desliga)." & # 912 e # 93
1953 “Outro trabalho recente inclui o desenvolvimento de linguagens para raciocinar sobre dados dependentes do tempo, como“ a conta foi paga ontem ”. Essas linguagens são baseadas na lógica tensa, que permite que as declarações sejam localizadas no fluxo do tempo. (A lógica tensa foi inventada em 1953 pelo filósofo Arthur Prior na Universidade de Canterbury, Christchurch, Nova Zelândia.) "& # 9114 & # 93
1954 "Nos Estados Unidos, uma das principais motivações para o financiamento da pesquisa em IA foi a promessa da tradução automática (MT). Por questões da Guerra Fria, o governo dos Estados Unidos estava particularmente interessado na tradução automática e instantânea do russo. Em 1954, a primeira demonstração de MT, o experimento Georgetown-IBM, mostrou-se uma grande promessa. O sistema não estava de forma alguma completo, consistindo apenas em seis regras, um vocabulário de 250 itens e especializado apenas em Química Orgânica. " & # 915 e # 93
1954 "Só em 1954, no entanto, Belmont Farley e Wesley Clark, do MIT, conseguiram executar a primeira rede neural artificial - embora limitada pela memória do computador a não mais que 128 neurônios. Eles foram capazes de treinar suas redes para reconhecer padrões simples. " & # 9114 & # 93
1955 "31 de agosto de 1955 O termo" inteligência artificial "é cunhado em uma proposta para um" estudo de inteligência artificial de 2 meses e 10 homens "submetido por John McCarthy (Dartmouth College), Marvin Minsky (Harvard University), Nathaniel Rochester (IBM) e Claude Shannon (Bell Telephone Laboratories). O workshop, que ocorreu um ano depois, em julho e agosto de 1956, é geralmente considerado a data de nascimento oficial do novo campo. " & # 9110 & # 93
1955 "Dezembro de 1955, Herbert Simon e Allen Newell desenvolvem o Logic Theorist, o primeiro programa de inteligência artificial, que eventualmente provaria 38 dos primeiros 52 teoremas em Whitehead e Russell's Principia Mathematica." & # 9110 & # 93 "An Allen Newell e Herbert A. Simon criaram o" primeiro programa de inteligência artificial ", que foi nomeado como" Teórico da Lógica ". Este programa provou 38 dos 52 teoremas da matemática e encontrou provas novas e mais elegantes para alguns teoremas. " & # 911 e # 93
1955–1956 "Um marco importante nesta área foi um programa de prova de teoremas escrito em 1955-1956 por Allen Newell e J. Clifford Shaw da RAND Corporation e Herbert Simon da Carnegie Mellon University. O Logic Theorist, como o programa ficou conhecido, foi projetado para provar teoremas de Principia Mathematica (1910–13), uma obra em três volumes dos filósofos matemáticos britânicos Alfred North Whitehead e Bertrand Russell. Em um caso, uma prova concebida pelo programa era mais elegante do que a prova fornecida no livros. " & # 9114 & # 93
1956 "Em 1956, uma conferência" Inteligência Artificial "foi realizada pela primeira vez em Hanover, New Hampshire, no Dartmouth College." & # 9116 & # 93 "31 de agosto de 1955 O termo" inteligência artificial "é cunhado em uma proposta de “Estudo de inteligência artificial de 2 meses e 10 homens” apresentado por John McCarthy (Dartmouth College), Marvin Minsky (Harvard University), Nathaniel Rochester (IBM) e Claude Shannon (Bell Telephone Laboratories). O workshop, que ocorreu um ano mais tarde, em julho e agosto de 1956, é geralmente considerada a data de nascimento oficial do novo campo. "" & # 9110 & # 93 "A conferência de verão de 1956 no Dartmouth College (financiada pelo Rockefeller Institute) é considerada a fundadora da disciplina. Curiosamente, é interessante notar o grande sucesso do que não foi uma conferência, mas sim um workshop. Apenas seis pessoas, incluindo McCarthy e Minsky, permaneceram consistentemente presentes ao longo deste trabalho (que se baseou essencialmente em desenvolvimentos baseados na lógica formal). "& # 913 & # 93 & # 915 & # 93 & # 911 & # 93
1956 "Newell e Simon [1956] construíram um programa, Logic Theorist, que descobre provas em lógica proposicional." & # 9113 & # 93 "Cinco anos depois, a prova de conceito foi inicializada por meio de Allen Newell, Cliff Shaw e Herbert Simon, Logic Theorist. O Logic Theorist foi um programa projetado para imitar as habilidades de resolução de problemas de um ser humano e foi financiado por Research and Development (RAND) Corporation. É considerado por muitos como o primeiro programa de inteligência artificial e foi apresentado no Dartmouth Summer Research Project on Artificial Intelligence (DSRPAI), organizado por John McCarthy e Marvin Minsky em 1956. " & # 914 & # 93 "Mas o campo da IA ​​não foi formalmente fundado até 1956, em uma conferência no Dartmouth College, em Hanover, New Hampshire, onde o termo" inteligência artificial "foi cunhado." & # 916 & # 93 "1956: O programa teórico da lógica (Logic Theory-LT) para resolver problemas matemáticos é apresentado por Neweell, Shaw e Simon. O sistema é considerado o primeiro sistema de inteligência artificial." & # 919 e # 93
1957 "Frank Rosenblatt desenvolve o Perceptron, uma primeira rede neural artificial que permite o reconhecimento de padrões com base em uma rede de aprendizagem por computador de duas camadas. O New York Times relatou que o Perceptron é" o embrião de um computador eletrônico que [a Marinha] espera ser capaz andar, falar, ver, escrever, reproduzir-se e ter consciência de sua existência. "O New Yorker chamou de uma“ máquina notável ... capaz do que equivale a pensamento ”." & # 9110 & # 93
1957 "Herbert Simon, economista e sociólogo, profetizou em 1957 que a IA teria sucesso em derrotar um humano no xadrez nos próximos 10 anos, mas a IA então entrou no primeiro inverno. A visão de Simon provou estar certa. 30 anos depois." & # 913 & # 93
1957 "The General Problem Solver (GPS) demonstrado por Newell, Shaw & amp Simon." & # 918 & # 93 "Newell, Simon e Shaw escreveram um programa mais poderoso, o General Problem Solver, ou GPS. A primeira versão do GPS funcionou em 1957 e o trabalho continuou no projeto por cerca de uma década. GPS poderia resolver uma variedade impressionante de quebra-cabeças usando uma abordagem de tentativa e erro. " & # 9114 & # 93
1958 "John McCarthy desenvolve a linguagem de programação Lisp, que se torna a linguagem de programação mais popular usada na pesquisa de inteligência artificial." & # 9110 & # 93 "1958: John McCarty do MIT criou a linguagem LISP (list Processing language)." & # 919 e # 93
1958 "1958: a" máquina geométrica "de Herbert Gelernter torna-se o primeiro programa avançado de IA a provar teoremas geométricos e o terceiro em criação." & # 9117 & # 93
1959 "Arthur Samuel cunhou o termo“ aprendizado de máquina ”, relatando sobre a programação de um computador“ para que ele aprenda a jogar um jogo de damas melhor do que aquele que pode ser jogado pela pessoa que escreveu o programa. ”" & # 9110 & # 93
1959 "Oliver Selfridge publica“ Pandemonium: A paradigm for learning ”nos Proceedings of the Symposium on Mechanization of Thought Processes, no qual ele descreve um modelo para um processo pelo qual os computadores podem reconhecer padrões que não foram especificados com antecedência." & # 9110 & # 93
1959 "John McCarthy publica“ Programs with Common Sense ”nos Proceedings of the Symposium on Mechanization of Thought Processes, em que descreve o Advice Taker, um programa para resolver problemas através da manipulação de frases em linguagens formais com o objetivo final de fazer programas“ que aprenda com a experiência deles de maneira tão eficaz quanto os humanos. ”" & # 9110 & # 93
1959 "Depois que os computadores reais foram construídos, algumas das primeiras aplicações de computadores foram programas de IA. Por exemplo, Samuel [1959] construiu um programa de damas em 1952 e implementou um programa que aprende a jogar damas no final dos anos 1950." & # 9113 & # 93
1960 "JCR Licklider descreveu a relação homem-máquina em seu trabalho" & # 919 & # 93
1961 "O primeiro robô industrial, Unimate, começa a trabalhar em uma linha de montagem em uma fábrica da General Motors em Nova Jersey." & # 9110 & # 93
1961 "James Slagle (dissertação de doutorado, MIT) escreveu (em Lisp) o primeiro programa de integração simbólica, SAINT, que resolveu problemas de cálculo no nível de calouro da faculdade." & # 918 e # 93
1961 "James Slagle desenvolve SAINT (Symbolic Automatic INTegrator), um programa heurístico que resolve problemas de integração simbólica no cálculo do calouro." & # 9110 & # 93
1963 "Artigo de 1963 de Reed C. Lawlor, membro da Ordem dos Advogados da Califórnia, intitulado" What Computers Can Do: Analysis and Prediction of Judicial Decisions "" & # 913 & # 93
1963 "O programa de Thomas Evans, ANALOGY, escrito como parte de seu trabalho de doutorado no MIT, demonstrou que os computadores podem resolver os mesmos problemas de analogia que são dados nos testes de QI." & # 918 e # 93
1963 "A dissertação de Ivan Sutherland no MIT sobre Sketchpad introduziu a ideia de gráficos interativos na computação." & # 918 e # 93
1963 "Edward A. Feigenbaum e Julian Feldman publicaram Computadores e Pensamento, a primeira coleção de artigos sobre inteligência artificial." & # 918 e # 93
1964 "Daniel Bobrow conclui sua dissertação de doutorado no MIT intitulada“ Entrada de linguagem natural para um sistema de solução de problemas de computador ”e desenvolve STUDENT, um programa de computador para compreensão de linguagem natural." & # 9110 & # 93
1964 Sociedade para o Estudo de Inteligência Artificial e Simulação do Comportamento Reino Unido
1964 "A dissertação de Danny Bobrow no MIT (tech.report # 1 do grupo de IA do MIT, Projeto MAC), mostra que os computadores podem entender a linguagem natural bem o suficiente para resolver problemas de álgebra corretamente." & # 918 e # 93
1964 "A dissertação de Bert Raphael no MIT sobre o programa SIR demonstra o poder de uma representação lógica do conhecimento para sistemas de resposta a perguntas" & # 918 & # 93
1965 "Herbert Simon disse em The Shape of Automation for Men and Management (1965) que" as máquinas serão capazes, dentro de 20 anos, de fazer qualquer trabalho que um homem possa fazer "" & # 9118 & # 93 "Herbert Simon prevê que" as máquinas farão ser capaz, dentro de vinte anos, de fazer qualquer trabalho que um homem possa fazer. "" & # 9110 & # 93
1965 "Hubert Dreyfus publica" Alchemy and AI, "argumentando que a mente não é como um computador e que havia limites além dos quais a AI não progrediria." & # 9110 & # 93
1965 "IJ Good escreve em" Especulações sobre a primeira máquina ultrainteligente "que“ a primeira máquina ultrainteligente é a última invenção que o homem precisa fazer, desde que a máquina seja dócil o suficiente para nos dizer como mantê-la sob controle. ”" & # 9110 e # 93
1965 “Joseph Weizenbaum desenvolve ELIZA, um programa interativo que dialoga em inglês sobre qualquer assunto. Weizenbaum, que queria demonstrar a superficialidade da comunicação entre homem e máquina, ficou surpreso com a quantidade de pessoas que atribuíram sentimentos de humano a o programa de computador. " & # 9110 & # 93
1965 "Edward Feigenbaum, Bruce G. Buchanan, Joshua Lederberg e Carl Djerassi começam a trabalhar no DENDRAL na Universidade de Stanford. O primeiro sistema especialista, automatizou o processo de tomada de decisão e o comportamento de solução de problemas de químicos orgânicos, com o objetivo geral de estudar formação de hipóteses e construção de modelos de indução empírica em ciência. " & # 9110 & # 93
1965 Sistema inteligente "O caminho foi realmente aberto no MIT em 1965 com o DENDRAL (sistema especialista especializado em química molecular)" & # 913 & # 93
1965 Literatura Hubert Dreyfus publica Alchemy and AI.
1965 "J. Alan Robinson inventou um procedimento de prova mecânica, o Método de Resolução, que permitia que os programas trabalhassem eficientemente com a lógica formal como uma linguagem de representação. (Veja o arquivo PDF para download de Carl Hewitt, Middle History of Logic Programming)." & # 918 e # 93
1965 "Joseph Weizenbaum (MIT) construiu ELIZA, um programa interativo que dialoga em inglês sobre qualquer assunto. Era um brinquedo popular nos centros de IA da rede ARPA quando uma versão que" simulava "o diálogo de um psicoterapeuta foi programada . " & # 918 e # 93
1966 "Shakey, o robô, é o primeiro robô móvel de uso geral a ser capaz de raciocinar sobre suas próprias ações.Em um artigo da revista Life 1970 sobre esta “primeira pessoa eletrônica”, Marvin Minsky é citado dizendo com “certeza”: “Em três a oito anos teremos uma máquina com a inteligência geral de um ser humano médio.” "& # 9110 e # 93
1966 "1966: Nascimento do primeiro chatbot O cientista da computação germano-americano Joseph Weizenbaum do Massachusetts Institute of Technology inventa um programa de computador que se comunica com humanos. 'ELIZA' usa scripts para simular vários parceiros de conversa, como um psicoterapeuta. Weizenbaum fica surpreso com a simplicidade dos meios necessários para ELIZA criar a ilusão de um parceiro de conversação humano. " & # 9119 & # 93 "Os pesquisadores enfatizaram o desenvolvimento de algoritmos que podem resolver problemas matemáticos. Joseph Weizenbaum criou o primeiro chatbot em 1966, que foi nomeado como ELIZA." & # 911 e # 93
1966 "O início do inverno de IA pode ser atribuído à decisão do governo de recuar na pesquisa de IA. As decisões

foram frequentemente atribuídos a alguns relatórios infames, especificamente o relatório do Automatic Language Processing Advisory Committee (ALPAC) do governo dos EUA em 1966 e o ​​relatório Lighthill para o governo britânico em 1973. "& # 915 & # 93 ||

para computadores, e três anos depois tentou construir computadores de quinta geração - criando o que os chefes de projeto descreveram como um salto ‘epocal’ na tecnologia da computação, a fim de dar ao Japão a liderança tecnológica nos próximos anos. Essa nova geração de máquinas não seria construída em microprocessadores padrão, mas em máquinas multiprocessadoras especializadas em programação lógica. A aposta era que essas máquinas lógicas de alta potência catalisariam o mundo do processamento de informações e realizariam a inteligência artificial. "& # 915 & # 93 ||


Quão forte é Fat Fritz 2?

Em seu marketing, a Chessbase usou as palavras "o novo número um", afirmando que em uma partida comparativa de mais de 1552 jogos Fat Fritz 2 "claramente bate Stockfish 12" e "supera o motor de topo anterior em mais de 40 pontos Elo (em fevereiro 2021). "

Embora Silver indique que prefere sua própria frase "o melhor dos dois mundos" ao invés de "o novo número um", ele afirma que Fat Fritz 2 supera Stockfish em seus próprios testes privados.

Inicialmente, Silver testou Fat Fritz 2 contra Stockfish 12, que foi lançado em 2 de setembro de 2020. No entanto, o motor do Fat Fritz 2 é baseado em uma versão mais recente do Stockfish 12 & mdasha versão do desenvolvedor que é mais próxima do Stockfish 13, que foi lançado em fevereiro 19, 10 dias após o lançamento de Fat Fritz 2.

Comparar jogos entre dois programas que usam mecanismos de pesquisa diferentes parece realmente estranho. Por que ele fez isso?

“O Stockfish 12 é a única referência que a maioria das pessoas tem, honestamente”, diz Silver. "Sim, existe um desenvolvedor Stockfish, mas a maioria das pessoas não sabe sobre ele e o problema é que o desenvolvedor Stockfish é um alvo móvel, francamente. Mesmo eu não testei contra ele em meus testes pessoais."

Outro motivo para o Silver testar contra o Stockfish 12 foi que ele foi o benchmark nas listas de classificação de computador. Ao contrário do xadrez humano, para programas de xadrez, não existe uma lista de classificação única e universalmente aceita.

"Olha, me pediram para fornecer um teste basicamente para mostrar como ele se saiu contra os melhores programas. No CCRL [as Listas de Classificação de Xadrez de Computador - PD] e no CEGT [o Grande Torneio de Motores de Xadrez - PD], Stockfish 12 estava no ar no topo da lista. Então, eu tive que mostrar o que eles iriam obter e como isso se compara a isso. E esse foi o resultado que produzi. "

Depois que Stockfish 13 foi lançado, Silver comparou com ele e publicou os resultados em seu artigo de 21 de fevereiro.

O teste de Silver mostrou Fat Fritz 2 realizando 16 pontos Elo melhor do que Stockfish 13.

A equipe Stockfish obtém resultados diferentes. Em uma amostra maior, onde ambos os motores foram compilados da fonte na mesma máquina, seus resultados em 60 + 0,6 s foram:

Na última lista de blitz da CCRL (dois minutos e um incremento de um segundo), Fat Fritz 2 é o motor principal, com dois pontos Elo a mais que Stockfish 13. Na lista 40/2 (jogos com 40 movimentos em dois minutos), Fat Fritz 2 está à frente de Stockfish 13 por seis pontos Elo, embora a versão de 11 de janeiro de 2021 do Stockfish por sua vez esteja seis pontos à frente de Fat Fritz 2.

O controle de tempo mais lento que o CCRL olha são jogos com o equivalente a 40 movimentos em 15 minutos. Os testes para Stockfish 13 apenas começaram e existem apenas 24 jogos até agora: um empate contra o Dragon por Komodo. No topo, veja novamente a versão de 11 de janeiro de Stockfish, embora Fat Fritz 2 seja tão alto quanto o segundo lugar.

A lista CCRL 40 + 2 de 20 de fevereiro de 2021.

O respeitado Stefan Pohl, visto como o mais independente testador de programas de computador, atualmente tem Stockfish 13 com quatro pontos Elo mais forte do que Fat Fritz 2, com o Stockfish de 11 de janeiro chegando dois pontos a mais.

A lista mais recente de Stefan Pohl.

"Posso ser honesto com você, tenho resultados em todos os lugares", diz Silver ao se referir a uma ampla gama de listas. "Não sei o que dizer. Tudo vai depender das aberturas, das condições, seja o que for."

Sobre a questão de por que os resultados são tão diferentes, Silver diz: "Nem todas as listas usam o mesmo tamanho de amostra e pode haver condições diferentes. Fiz uma análise de uma das listas que produzem os resultados e descobri que ECO A aberturas (principalmente inglesas, Benoni e aberturas irregulares - PD] representaram 60 por cento dos jogos. Eu pensei: e se eles tivessem uma distribuição mais equilibrada das aberturas, ainda seria assim? "

Ginsberg sugere que os resultados divergentes do teste de Silver são uma combinação de um processador relativamente antigo e o controle de tempo. Silver usou um AMD FX-8350 (4GHz), usando um thread (cada lado) com hash de 512 MB.

“Este é um processador que foi lançado em 2012”, diz Ginsberg. "Portanto, um teste com jogos de 90 segundos e um incremento de um segundo será efetivamente um hipérbole. Não fizemos nenhum teste nessas velocidades e todos usamos CPUs modernas."

Em 24 de fevereiro de 2021, a Chessbase removeu a reivindicação "novo número um" de seu site.

A Chessbase mudou seu site para remover a alegação de que "Fat Fritz 2.0" é o "novo motor de xadrez nº 1". pic.twitter.com/01ia7JQcrU

& mdash NoJoke (@NoJokeChris) 24 de fevereiro de 2021

"Achamos que os clientes que compram Fat Fritz 2 obtêm muito pouco valor agregado pelo dinheiro", escreveu VandeVondele em seu comunicado. Então, qual é esse valor agregado? Por que um cliente pagaria aqueles 99,90 euros?

Silver: "Em última análise, não acho que seja tudo sobre Elo. Se fosse, seria muito chato, francamente. Se você está falando sobre uma diferença modesta, não deveria ser o critério absoluto. Claro, é um aspecto de marketing, não há dúvida. se estou escolhendo um motor para analisar, conheço super GMs que ainda analisam com Leela, embora seu Elo seja pior do que Stockfish NNUE. Por quê? Porque ele fornece a eles novas perspectivas, análises diferentes, posições diferentes, continuações diferentes. Eles apreciam Isso. Eles não se importam se na lista X, Y e Z está 50 Elo atrasado ou adiantado. Eu fiz testes e jogos suficientes para dizer que FF2 NNUE em comparação com Stockfish 13 NNUE na mesma pesquisa, usando o mesmo binário, usa continuações diferentes, mais do que suficiente para dizer que eles são claramente diferentes. "


Passando no Teste de Turing

Além de ser o pensador fundamental da ciência da computação e lendário decifrador de códigos, Alan Turing também estabeleceu as bases para a inteligência artificial. Após a Segunda Guerra Mundial, ele assumiu um cargo no prestigioso Laboratório Nacional de Física do Reino Unido. Enquanto estava lá, ele publicou um dos primeiros artigos a considerar a possibilidade de computadores recriarem a inteligência humana. Ele observou que uma máquina inteligente deveria ser capaz de, de certo modo, "educar-se" a si mesma, como uma criança é capaz de aprender por conta própria.

& ldquoNão, não estou interessado em desenvolver um cérebro poderoso. Tudo o que eu procuro é apenas um cérebro medíocre, algo como o presidente da American Telephone and Telegraph Company. & Rdquo & mdashAlan Turing

Depois de trabalhar nos planos para o primeiro computador digital & ndash, ele estava ocupado! & ndash Turing finalmente retornou à inteligência artificial. Em 1950, ele publicou seu seminal & ldquoComputing Machinery and Intelligence & rdquo (curiosamente para o jornal de filosofia britânico Mente ) .

Neste artigo, Turing enfatizou que os computadores iriam eventualmente pense, embora ele não tivesse certeza de como eles poderiam atingir esse nível de consciência. Em vez disso, ele se concentrou em como sabemos que uma IA foi criada e introduziu seu & ldquoimitation game. & Rdquo É um tipo de competição em que interrogadores humanos adivinham se as comunicações escritas ou verbais de uma parte desconhecida são humanas ou geradas por computador. E sim, é também a base para o título do filme de 2014 sobre Turing.

Hoje em dia, todos nós nos envolvemos com chatbots e outros assistentes virtuais, como Siri ou Alexa. Embora essas sejam ferramentas de software impressionantes, nós, humanos, logo percebemos que estamos trabalhando com uma máquina que emite respostas prontas. Para sua diversão, pergunte a Siri se & ldquopearls rima com condes & rdquo ou se & ldquoprefer salada antes ou depois do jantar. & Rdquo Você & rsquoll confirma muito rapidamente que você & rsquoll está falando com uma máquina. No entanto, se Siri pudesse convencê-lo de que é um ser humano inteligente, ele venceria o jogo da imitação e passaria no Teste de Turing para inteligência de máquina.

Alan Turing e sua equipe construíram um computador, chamado bombe, para quebrar os códigos alemães durante a Segunda Guerra Mundial.

Turing previu com ousadia que, no ano 2000, uma IA seria capaz de enganar seus testadores humanos 30% das vezes. Ninguém agora acredita que estamos próximos desse objetivo. No entanto, isso não impediu a coleta do Prêmio Loebner realizada a cada ano. Desde 1991, os desenvolvedores de software de IA trazem seus chatbots para que sejam avaliados pelos juízes do Loebner. O prêmio é dado às interações mais humanas.

Em 2019, Mitsuku ganhou o & ldquobest chatbot geral & rdquo por suas habilidades de conversação. Para o grande prêmio de US $ 100.000, no entanto, um chatbot teria que conversar bem o suficiente para convencer todos os juízes de Loebner de suas habilidades de conversação e, assim, passar no Teste de Turing. Esse prêmio permanece não reclamado.


O futuro

Então, o que o futuro reserva? No futuro imediato, a linguagem de IA parece ser a próxima grande novidade. Na verdade, já está em andamento. Não me lembro da última vez que liguei para uma empresa e falei diretamente com um humano. Hoje em dia, as máquinas estão até me ligando! Pode-se imaginar interagir com um sistema especialista em uma conversa fluida, ou ter uma conversa em dois idiomas diferentes sendo traduzida em tempo real. Também podemos esperar ver carros sem motorista nas estradas nos próximos vinte anos (e isso é conservador). No longo prazo, o objetivo é a inteligência geral, que é uma máquina que supera as habilidades cognitivas humanas em todas as tarefas. Isso se assemelha ao robô senciente que estamos acostumados a ver nos filmes. Para mim, parece inconcebível que isso seja realizado nos próximos 50 anos. Mesmo que a capacidade esteja presente, as questões éticas serviriam como uma forte barreira contra a fruição. Quando chegar esse momento (mas melhor ainda antes de chegar a hora), precisaremos ter uma conversa séria sobre a política e a ética da máquina (ironicamente, ambos assuntos fundamentalmente humanos), mas, por enquanto, permitiremos que a IA melhore de forma constante e se descontrole na sociedade.

Rockwell Anyoha é um estudante graduado no departamento de biologia molecular com formação em física e genética. Seu projeto atual emprega o uso de aprendizado de máquina para modelar o comportamento animal. Em seu tempo livre, Rockwell gosta de jogar futebol e debater assuntos mundanos.


Assista o vídeo: .s 50-Pound Note to Feature Enigma Code-Cracker Turing