Ray Kurzweil
Two great thinkers see danger in AI. Here’s how
to make it safe.
![]() |
Getty Images |
Stephen Hawking, the pre-eminent physicist,
recently warned that artificial intelligence (AI), once it surpasses human
intelligence, could pose a threat to the existence of human civilization. Elon
Musk, the pioneer of digital money, private spaceflight and electric cars, has
voiced similar concerns.
If AI becomes an existential threat, it won’t
be the first one. Humanity was introduced to existential risk when I was a
child sitting under my desk during the civil-defense drills of the 1950s.
Since then we have encountered comparable specters, like the possibility of a
bioterrorist creating a new virus for which humankind has no defense.
Technology has always been a double-edged sword, since fire kept us warm but
also burned down our villages.
The typical dystopian futurist movie has one or
two individuals or groups fighting for control of “the AI.” Or we see the AI
battling the humans for world domination. But this is not how AI is being
integrated into the world today. AI is not in one or two hands; it’s in 1
billion or 2 billion hands. A kid in Africa with a smartphone has more
intelligent access to knowledge than the President of the United States had 20
years ago. As AI continues to get smarter, its use will only grow. Virtually
everyone’s mental capabilities will be enhanced by it within a decade.
We will still have conflicts among groups of
people, each enhanced by AI. That is already the case. But we can take some
comfort from a profound, exponential decrease in violence, as documented in
Steven Pinker’s 2011 book, The Better Angels of Our Nature: Why Violence Has
Declined. According to Pinker, although the statistics vary somewhat from
location to location, the rate of death in war is down hundredsfold compared
with six centuries ago. Since that time, murders have declined tensfold. People
are surprised by this. The impression that violence is on the rise results from
another trend: exponentially better information about what is wrong with the
world—another development aided by AI.
There are strategies we can deploy to keep
emerging technologies like AI safe. Consider biotechnology, which is perhaps a
couple of decades ahead of AI. A meeting called the Asilomar Conference on
Recombinant DNA was organized in 1975 to assess its potential dangers and
devise a strategy to keep the field safe. The resulting guidelines, which have
been revised by the industry since then, have worked very well: there have been
no significant problems, accidental or intentional, for the past 39 years. We
are now seeing major advances in medical treatments reaching clinical practice
and thus far none of the anticipated problems.
Consideration of ethical guidelines for AI goes
back to Isaac Asimov’s three laws of robotics, which appeared in his short
story “Runaround” in 1942, eight years before Alan Turing introduced the field
of AI in his 1950 paper “Computing Machinery and Intelligence.” The median view
of AI practitioners today is that we are still several decades from achieving
human-level AI. I am more optimistic and put the date at 2029, but either way,
we do have time to devise ethical standards.
There are efforts at universities and companies
to develop AI safety strategies and guidelines, some of which are already in
place. Similar to the Asilomar guidelines, one idea is to clearly define the
mission of each AI program and to build in encrypted safeguards to prevent
unauthorized uses.
Ultimately, the most important approach we can
take to keep AI safe is to work on our human governance and social institutions.
We are already a human-machine civilization. The best way to avoid destructive
conflict in the future is to continue the advance of our social ideals, which
has already greatly reduced violence.
AI today is advancing the diagnosis of disease,
finding cures, developing renewable clean energy, helping to clean up the
environment, providing high-quality education to people all over the world,
helping the disabled (including providing Hawking’s voice) and contributing in
a myriad of other ways. We have the opportunity in the decades ahead to make
major strides in addressing the grand challenges of humanity. AI will be the
pivotal technology in achieving this progress. We have a moral imperative to
realize this promise while controlling the peril. It won’t be the first time
we’ve succeeded in doing this.
Ray Kurzweil is the author of five books on
artificial intelligence, including the recent New York Times best seller How
to Create a Mind, TIME, Dec. 29, 2014/Jan. 5, 2015
A inteligência artificial sempre será submissa à inteligência humana, pois será impossível conferir-lhe vontade própria. Perigo, sim, haverá se o homem a programar para destruição da própria humanidade, mas aí é apropria inteligência humana que é perversa e destruidora...
ResponderExcluirValdemar habitzreuter
THE PESSIMISTIC VIEW
ResponderExcluirSTEPHEN HAWKING:
“Once humans develop artificial intelligence, it would take off on its own and redesign itself… The development of full artificial intelligence could spell the end of the human race.”
ELON MUSK:
“I think we should be very careful about artificial intelligence. If I had to guess at what our biggest existential threat is, it’s probably that… We are summoning the demon.”
Não se chegará a este patamar de a própria IA se auto replicar, sempre haverá a interferência e controle do homem. Como fabricar um cérebro artificial que produz pensamentos próprios? Se já é difícil descobrir como o nosso cérebro produz os nossos pensamentos, quão mais difícil construir algo artificia que possa gerarpensamentos ou consciência. Mas, quem sou eu para
ExcluirA Inteligência Artificial pode ser "copiada" em laboratório, mas nunca será desenvolvida a ponto de equipar uma máquina cibernética com sentimentos e livre arbítrio, embora possa ser programada para diversos fins, incluindo a destruição do seu criador. Hoje, no Brasil nós temos um grande laboratório do PT, que desenvolve a Burrice Artificial, que tem sido programada com sucesso para se apropriar das verbas públicas e enganar o pobre! Alberto José
ResponderExcluirHá um detalhe, que não foi bem delineado.
ResponderExcluirAlguém já fez programas de computador?
Na década do Z80, e do processador 8080 eu fazia programas em linguagem de máquina, utilizando os disquetes de 128Kb. Lembro que paguei 1000 dólares por um HD de 2 MB.
Programar é ensinar o computador a decidir entre sins e nãos, numa cadeia de eventos cujos "SE" acontecer isso ou aquilo é decidido pelo programador.
Eu tinha feito um programa no meu velho apple 2000, para jogar na quina, e consegui ganhar mais de 100 quadras, nunca fiz uma quina.
Todo programa é baseado nas probabilidades dos eventos.
Uma inteligência artificial, só consegue utilizar os dados que lhes são programados.
Se ela se auto programar para novos eventos, ela não terá discernimento entre o sim e não, se não forem os "SE" ou "IF" completamente definidos pela mente humana.
Eu parei no tempo, porque exigia um estudo cada vez mais complexo, as linguagens de alto nível substituíram a linguagem de baixo nível, ou as instruções diretas ao processador.
Eu diria que a inteligência nossa não pode ser copiada.
E que não existe inteligência artificial, existe um máquina programada com decisões aleatórias baseadas no bom ou mau senso de seu programador.
Imaginemos um sistema jurídico baseado em computadores?
Haveriam mais injustiças do que um humano corrupto as pudesse decidir, não há como prever eventos de toda a natureza.
Ate o grande SH esqueceu-se de dizer, que nossa inteligência é baseada em fatores sensoriais.
Digamos assim:
Uma pessoa para amar necessita de pelo menos 3 sentidos orgânicos.
O olfato para produzir feromônios.
O tato para produzir os prazeres.
E mais um dos outros três aleatoriamente, visão, audição e paladar.
Nosso sexto sentido, a fala, é dependente da audição.
Os 5 juntos produzem o discernimento, o descobrimento e os sentimentos.
Pensando como mecânico de voo, lhes digo, a máquina não consegue trocar suas próprias peças defeituosas. Sempre defendi que num "cockpit" deveriam ter 3 pessoas.
Enquanto tiver duas, acontecerão erros humanos e das máquinas.
Quando um decidir suicidar o outro sozinho não impede.
Quando a máquina falhar, e dois tiverem a mesma decisão, a maquina vence.
Naquela premissa que todos nós sempre dizemos, " sempre dizemos".
Quer ter prazer compre um vibrador, acontece que vibrador não pensa, e quem o comprou se acha um grande programador.
Nefasto imbecil, use as mãos.
bom dia
Sim, o fato é que quem provê a máquina é o homem, portanto, aquela seria a extensão da inteligência deste...
ResponderExcluir