Baixe agora o app da Tribo Gamer Disponível na Google Play
Instalar

Stephen Hawking: "Inteligência artificial pode causar o fim da humanidade"



Você está preparado para um futuro pós-apocalíptico digno dos filmes do Exterminador do Futuro? Se a visão do físico britânico Stephen Hawking se confirmar, é bom se preparar. Segundo ele, o desenvolvimento da inteligência artificial pode levar ao fim da raça humana.

Isso não estaria muito perto de acontecer, no entanto, já que estamos em uma etapa incipiente do desenvolvimento de uma inteligência artificial real. Até o momento, o que a humanidade já criou provou ter utilidade, como ele próprio salienta.

O comentário foi feito quando ele foi questionado sobre a nova tecnologia que ele usa para auxiliar sua comunicação. O novo sistema da Intel usa a tecnologia do aplicativo SwiftKey, um teclado virtual que utiliza aprendizado de máquina, uma forma de inteligência artificial, para prever as próximas palavras do usuário com base na forma como ele digita, poupando esforço.

Contudo, apesar de ver estas pequenas conquistas como vitórias, o futuro é mais nebuloso. "A inteligência artificial alçaria voo sozinha e se reinventaria sozinha em um ritmo cada vez mais rápido. Os humanos, que tem limitações por causa da lenta evolução biológica, não serão capazes de competir e serão superados", afirma ele.

A opinião é forte e controversa, porém. Entusiastas da inteligência artificial como Rollo Carpenter, criador do Cleverbot, algoritmo feito para simular uma conversação com um humano que você pode testar neste link, prevê que a humanidade seguirá no controle da IA por um bom tempo.

"Creio que controlaremos a tecnologia por um longo tempo, e o potencial de resolver muitos dos problemas do mundo será concreteizado", afirma Carpenter. Ele crê diz que ainda estamos longe de ter o poder computacional necessário para criar uma inteligência artificial completa.

"Nós ainda não sabemos direitos o que acontecerá se uma máquina superar nossa própria inteligência, então não podemos saber se seremos ajudados por ela, ignorados, margnizalizados ou destruídos", afirma ele.

Do lado de Hawking está Elon Musk, criador da Tesla Motors e investidor em inúmeros projetos futuristas. Para ele, a IA é "a maior ameaça à nossa existência".

Fonte: Olhardigital/Uol

Comentários

03 Dez, 2014 - 11:24

Comentários

Priston31 03 Dez, 2014 21:43 1

peplegal escreveu:Porém há muitos outros grandes Pensadores que Discordam disto, alegando que existe "algo" fundamentalmente NÃO-COMPUTÁVEL na Mente Humana

Difícil provar isso já que nos mesmo não conseguimos provar nossa auto-consciência, como poderemos saber se a maquina tem uma, faça a pergunta a si mesmo, você consegue provar sua auto-consciência ? A não ser que você cite a alma (oque ai nem tem oque discutir já que é acreditar ou não) ninguém pode provar sua auto-consciência e muito menos uma maquina poderia já que nos a programamos mas isso não impede a maquina de evoluir aprendendo e analisando dados e tomar ações em cima disso para o nosso bem ou para o mal e cientificamente até onde se sabe os nossos pensamentos, sentimentos, ou qualquer coisa que nos torna conscientes são apenas pulsos elétricos no nosso cérebro ao qual tem funcionamento parecido ao de um computador alem de que na maioria dos casos um computador já é mais rápido e preciso do que qualquer ser humano.

desousa 03 Dez, 2014 18:42 -2

Maquinas são maquinas jamais vai acontecer isso a ideia dele é falha ; só em filmes mesmo, fato .

peplegal 03 Dez, 2014 18:18 5

.
O problema é que Hawking é um Materialista Ferrenho. Para ele, o Cérebro é apenas um Computador realmente Avançado.

Este ponto de vista é chamado de "IA Forte", segundo o qual, a Tecnologia poderá, num futuro não muito distante, atingir a mesma "funcionalidade" do Cérebro.

Porém há muitos outros grandes Pensadores que Discordam disto, alegando que existe "algo" fundamentalmente NÃO-COMPUTÁVEL na Mente Humana.

Segundo Eles, um computador poderá realizar inúmeras tarefas que o Cérebro realiza, e com muito mais velocidade....mas jamais será UM SER.

Ou seja, poderá ter PENSAMENTOS, mas jamais SABERÁ que possui PENSAMENTOS.

Poderá até ter SENTIMENTOS, mas nunca a PERCEPÇÃO deles.

Poderá até mesmo ter Consciência da Realidade Exterior....mas Nunca terá a CONSCIÊNCIA de que possui Consciência.

Sendo Engenheiro e Programador, sou um Otimista com relação a IA. Tenho certeza que em breve teremos máquinas fazendo coisas realmente Brilhantes.

Mas continuarão sendo apenas MÁQUINAS.

.
.

Battleface 03 Dez, 2014 15:12 0

Pooligno escreveu:é impossível criar um algoritmo sem saber tudo o que ele vai e pode fazer,é uma sequência de ações finitas se um dia um robô decidir se voltar contra os humanos,é por que ele foi programado para isso,ou seja,não foram as máquinas e sim os humanos,da mesma forma que uma arma não puxa seu gatilho sozinha ;)



não se criarem um algoritmo que permita a máquina a aprender por conta própria se nós conseguimos aprender não seria algo impossível para uma ia fazer o mesmo.

Priston31 03 Dez, 2014 14:59 0

Pooligno escreveu:é impossível criar um algoritmo sem saber tudo o que ele vai e pode fazer,é uma sequência de ações finitas se um dia um robô decidir se voltar contra os humanos,é por que ele foi programado para isso,ou seja,não foram as máquinas e sim os humanos,da mesma forma que uma arma não puxa seu gatilho sozinha ;)

Na verdade é totalmente possível criar algoritmos imprevisíveis, vários bugs acontecem pela imprevisibilidade do algoritmo e do hardware, além de que já existem algoritmos "auto didatas", não da pra dizer que é uma IA mas eles analisam dados e tentam tomar decisões melhores de acordo com a situação, e o conceito de IA nada mais é do que ser um algoritmo inteligente, obviamente o programador pode e deve impor limitações mas em decorrência de contradições no código e na aprendizagem da IA pode ocasionar quebra ou incoerências nas regras (existem alguns filmes como "Eu, robo" que mostram levemente isso).

Curanda 03 Dez, 2014 14:25 0

Marlon018 escreveu:Concordo... mas não acho que seríamos tão burros a ponto de criar algo sem um botão de autodestruição.

Não acho que um ser mais inteligentes que nós iria se AUTOdestruir ( mas deu pra entender a idéia xD )

Na minha concepção, essas ideias de I.A. são bem estilo equino mesmo. Significando que, eles seriam inteligente, porém limitados, ex.:
Um robô na odontologia -&rt; a única ciência que ele precisa ter é a de analisar os problemas bucais e resolvê-los, não há sentido em incrementar, num robô-dentista, os conhecimentos sobre Física, Atirar, "julgar o certo e errado" e etc ...

Por isso eu não acho que seremos eliminados perante a I.A., mas tbm a temo, como qualquer ser que se depara com algo desconhecido e possivelmente superior.

Pooligno 03 Dez, 2014 14:21 2

é impossível criar um algoritmo sem saber tudo o que ele vai e pode fazer,é uma sequência de ações finitas se um dia um robô decidir se voltar contra os humanos,é por que ele foi programado para isso,ou seja,não foram as máquinas e sim os humanos,da mesma forma que uma arma não puxa seu gatilho sozinha ;)

Marlon018 03 Dez, 2014 13:07 1

Concordo... mas não acho que seríamos tão burros a ponto de criar algo sem um botão de autodestruição.