RIO – Quando Stephen Hawking afirmou que a inteligência artificial poderia levar a extinção da raça humana, sua fala mais parecia um roteiro de um filme de ficção cientifica para alguns. Para o mais famoso físico quântico do mundo, as potencialidades que robôs inteligentes atingiriam poderiam ser uma ameaça à humanidade. Enquanto sua afirmação ganha eco em outras declarações antigas, um pesquisador da área afirma que o argumento de Hawking não aborda o real problema. Na semana passada, o físico afirmou a BBC:
— O desenvolvimento da inteligência artificial plena poderia significar o fim da raça humana. Ela iria decolar por conta própria e se redesenhar por ela mesma em um ritmo cada vez maior. Os serem humanos, que são limitados pela lenta evolução biológica, não poderão competir e seriam substituídos.
Porém, para Mark Bishop, professor de computação cognitiva da Universidade de Londres, a visão apocalíptica de Hawking não é real:
— Não é sempre que você é obrigado a dizer que um gênio internacional está errado, mas sobre a previsão alarmante em relação à inteligência artificial e o futuro da humanidade, acredito que o professor Stephen Hawking está errado.
A primeira vez a singularidade da inteligência artificial foi abordada aconteceu em 1950 pelo matemático John Von Newmann. Logo depois, o futurologista Ray Kurzweil popularizou a ideia.
Em 1997, o professor Kevin Warwich afirmou algo similar quando promoveu seu livro “O Março das Máquinas”. Recentemente, Elon Musk, empreendedor do PayPal, alertou sobre a inteligência artificial ser a maior ameaça atual e que é necessário regularizá-la.
Segundo Bishop, essas concepções estão equivocadas porque a humanidade possui habilidades fundamentais, como a compreensão e a consciência, que não são presentes nos robôs inteligentes.
— Essa falta significa que sempre haverá uma ‘diferença humana’ entre qualquer inteligência artificial e uma mente real. Por causa desta lacuna, um trabalho humano em conjunto com qualquer máquina inteligente sempre será mais poderoso do que robôs trabalhando sozinhos — afirmou Bishop ao Independent.
Para o pesquisador, essa diferenciação entre a inteligência humana e a artificial é fundamental.
— É precisamente esta diferença que impede que a inteligência artificial se expanda e ultrapasse a humana. Estou particularmente preocupado com o potencial de implantação destes sistemas em armas militares porque a inteligência artificial pode não ser tão boa e acabar forçando situações que podem se transformar em altamente aterrorizantes — disse Bishop.
Fonte: O Globo