(Translated by https://www.hiragana.jp/)
Eliezer Yudkowsky – Wikipédia, a enciclopédia livre Saltar para o conteúdo

Eliezer Yudkowsky

Origem: Wikipédia, a enciclopédia livre.
Eliezer Yudkowsky
Eliezer Yudkowsky
Yudkowsky na Universidade Stanford em 2006
Nome completo Eliezer Shlomo[a] Yudkowsky
Conhecido(a) por Fundador do Machine Intelligence Research Institute
Criação do termo inteligência artificial amigável
Pesquisas em segurança da inteligência artificial
Escrita racional
Criador do LessWrong
Nascimento 11 de setembro de 1979 (45 anos)

Eliezer S. Yudkowsky (/ˌɛliˈɛzər ˌjʌdˈkski/ EH-lee-EH-zər YUD-KOW-skee;[1] nascido em 11 de setembro de 1979) é um pesquisador americano de inteligência artificial[2][3][4][5] e escritor sobre teoria da decisão e ética, mais conhecido por popularizar ideias relacionadas à inteligência artificial amigável.[6][7] É o fundador e investigador do Machine Intelligence Research Institute (MIRI), uma organização privada de investigação sem fins lucrativos sediada em Berkeley, Califórnia.[8] O seu trabalho sobre a perspectiva de uma explosão de inteligência descontrolada influenciou o livro de 2014 do filósofo Nick Bostrom, Superintelligence: Paths, Dangers, Strategies.[9]

Trabalho em segurança da inteligência artificial

[editar | editar código-fonte]

Aprendizagem de metas e incentivos em sistemas de software

[editar | editar código-fonte]

As opiniões de Yudkowsky sobre os desafios de segurança que as futuras gerações de sistemas de IA representam são discutidas no livro de graduação de Stuart Russell e Peter Norvig, Artificial Intelligence: A Modern Approach. Observando a dificuldade de especificar formalmente objetivos de uso geral manualmente, Russell e Norvig citam a proposta de Yudkowsky de que os sistemas autônomos e adaptativos sejam projetados para aprender o comportamento correto ao longo do tempo:

Yudkowsky (2008)[10] entra em mais detalhes sobre como projetar uma IA amigável. Ele afirma que a simpatia (o desejo de não prejudicar os seres humanos) deve ser projetada desde o início, mas que os projetistas devem reconhecer que seus próprios projetos podem ter falhas e que o robô aprenderá e evoluirá com o tempo. Assim, o desafio é um projeto de mecanismo - projetar um mecanismo para a evolução da IA sob um sistema de verificações e equilíbrios e dar aos sistemas funções de utilidade que permanecerão amigáveis em face de tais mudanças.[6]

Em resposta à preocupação com a convergência instrumental, de que os sistemas autônomos de tomada de decisão com metas mal projetadas teriam incentivos padrão para maltratar os seres humanos, Yudkowsky e outros pesquisadores do MIRI recomendaram que se trabalhasse para especificar agentes de software que convergissem para comportamentos padrão seguros, mesmo quando suas metas fossem mal especificadas.[11][7]

Previsão de capacidades

[editar | editar código-fonte]

No cenário de explosão da inteligência, hipotetizado por I. J. Good, os sistemas de IA com autoaperfeiçoamento recursivo passam rapidamente da inteligência geral subumana para a superinteligência. O livro de 2014 de Nick Bostrom, Superintelligence: Paths, Dangers, Strategies, descreve detalhadamente o argumento de Good, ao mesmo tempo em que cita Yudkowsky sobre o risco de que a antropomorfização de sistemas avançados de IA faça com que as pessoas não compreendam a natureza de uma explosão de inteligência. “A IA pode dar um salto aparentemente acentuado na inteligência puramente como resultado do antropomorfismo, a tendência humana de pensar no ‘idiota da aldeia’ e em ‘Einstein’ como os extremos da escala de inteligência, em vez de pontos quase indistinguíveis na escala das mentes em geral.”[6][10][12]

Eliezer no evento Manifest 2023.

Em Artificial Intelligence: A Modern Approach, Russell e Norvig levantam a objeção de que existem limites conhecidos para a resolução inteligente de problemas a partir da teoria da complexidade computacional; se houver fortes limites na eficiência com que os algoritmos podem resolver várias tarefas, uma explosão de inteligência pode não ser possível.[6]

Artigo de opinião na revista Time

[editar | editar código-fonte]

Em um artigo de opinião publicado em 2023 na revista Time, Yudkowsky discutiu o risco da inteligência artificial e propôs medidas que poderiam ser tomadas para limitá-lo, incluindo a interrupção total do desenvolvimento da IA,[13][14] ou até mesmo a “destruição de um centro de dados desonesto por meio de um ataque aéreo”.[5] O artigo ajudou a introduzir o debate sobre o alinhamento da IA na mídia, levando um repórter a fazer uma pergunta ao presidente Joe Biden sobre a segurança da IA em uma coletiva de imprensa.[2]

Escrita racional

[editar | editar código-fonte]

Entre 2006 e 2009, Yudkowsky e Robin Hanson foram os principais colaboradores do Overcoming Bias, um blog de ciências cognitivas e sociais patrocinado pelo Future of Humanity Institute da Universidade de Oxford. Em fevereiro de 2009, Yudkowsky fundou o LessWrong, um “blog comunitário dedicado a refinar a arte da racionalidade humana”.[15][16] Desde então, o Overcoming Bias tem funcionado como o blog pessoal de Hanson.

Mais de 300 publicações do blog de Yudkowsky sobre filosofia e ciência (originalmente escritas no LessWrong e no Overcoming Bias) foram lançadas como um livro digital pelo MIRI em 2015, intitulado Rationality: From AI to Zombies.[17] O MIRI também publicou Inadequate Equilibria, um livro digital de 2017 de Yudkowsky sobre ineficiências sociais.[18]

Yudkowsky também escreveu várias obras de ficção. Sua fanfic Harry Potter and the Methods of Rationality usa elementos do enredo de Harry Potter, de J. K. Rowling, para ilustrar tópicos científicos.[15][19] O The New Yorker descreveu Harry Potter and the Methods of Rationality como uma recontagem do original de Rowling “em uma tentativa de explicar a magia de Harry por meio do método científico”.[20]

Yudkowsky é um autodidata[21] e não frequentou o ensino médio nem a faculdade.[22] Ele foi criado como judeu ortodoxo moderno, mas não se identifica religiosamente como judeu.[23][24]

Publicações acadêmicas

[editar | editar código-fonte]
  • Yudkowsky, Eliezer (2011). «Complex Value Systems in Friendly AI» (PDF). Artificial General Intelligence: 4th International Conference, AGI 2011, Mountain View, CA, USA, August 3–6, 2011. Berlin: Springer 
  • Soares, Nate; Fallenstein, Benja; Yudkowsky, Eliezer (2015). «Corrigibility» (PDF). AAAI Workshops: Workshops at the Twenty-Ninth AAAI Conference on Artificial Intelligence, Austin, TX, January 25–26, 2015. AAAI Publications 
  1. Ou Solomon
  1. "Eliezer Yudkowsky on “Three Major Singularity Schools”" no YouTube. February 16, 2012. Timestamp 1:18.
  2. a b Silver, Nate (10 de abril de 2023). «How Concerned Are Americans About The Pitfalls Of AI?». FiveThirtyEight. Consultado em 17 de abril de 2023. Cópia arquivada em 17 de abril de 2023 
  3. Ocampo, Rodolfo (4 de abril de 2023). «I used to work at Google and now I'm an AI researcher. Here's why slowing down AI development is wise». The Conversation (em inglês). Consultado em 19 de junho de 2023. Cópia arquivada em 11 de abril de 2023 
  4. Gault, Matthew (31 de março de 2023). «AI Theorist Says Nuclear War Preferable to Developing Advanced AI». Vice (em inglês). Consultado em 19 de junho de 2023. Cópia arquivada em 15 de maio de 2023 
  5. a b Hutson, Matthew (16 de maio de 2023). «Can We Stop Runaway A.I.?». The New Yorker (em inglês). ISSN 0028-792X. Consultado em 19 de maio de 2023. Cópia arquivada em 19 de maio de 2023 
  6. a b c d Russell, Stuart; Norvig, Peter (2009). Artificial Intelligence: A Modern Approach. [S.l.]: Prentice Hall. ISBN 978-0-13-604259-4 
  7. a b Leighton, Jonathan (2011). The Battle for Compassion: Ethics in an Apathetic Universe. [S.l.]: Algora. ISBN 978-0-87586-870-7 
  8. Kurzweil, Ray (2005). The Singularity Is Near. New York City: Viking Penguin. ISBN 978-0-670-03384-3 
  9. Ford, Paul (11 de fevereiro de 2015). «Our Fear of Artificial Intelligence». MIT Technology Review (em inglês). Consultado em 9 de abril de 2019. Cópia arquivada em 30 de março de 2019 
  10. a b Yudkowsky, Eliezer (2008). «Artificial Intelligence as a Positive and Negative Factor in Global Risk» (PDF). In: Bostrom, Nick; Ćirković, Milan. Global Catastrophic Risks. [S.l.]: Oxford University Press. ISBN 978-0199606504. Consultado em 16 de outubro de 2015. Cópia arquivada (PDF) em 2 de março de 2013 
  11. Soares, Nate; Fallenstein, Benja; Yudkowsky, Eliezer (2015). «Corrigibility». AAAI Workshops: Workshops at the Twenty-Ninth AAAI Conference on Artificial Intelligence, Austin, TX, January 25–26, 2015. AAAI Publications. Consultado em 16 de outubro de 2015. Cópia arquivada em 15 de janeiro de 2016 
  12. Bostrom, Nick (2014). Superintelligence: Paths, Dangers, Strategies. [S.l.]: Oxford University Press. ISBN 978-0199678112 
  13. Moss, Sebastian (30 de março de 2023). «"Be willing to destroy a rogue data center by airstrike" - leading AI alignment researcher pens Time piece calling for ban on large GPU clusters». Data Center Dynamics. Consultado em 17 de abril de 2023. Cópia arquivada em 17 de abril de 2023 
  14. Ferguson, Niall (9 de abril de 2023). «The Aliens Have Landed, and We Created Them». Bloomberg. Consultado em 17 de abril de 2023. Cópia arquivada em 9 de abril de 2023 
  15. a b Miller, James (2012). Singularity Rising. [S.l.]: BenBella Books, Inc. ISBN 978-1936661657 
  16. Miller, James (28 de julho de 2011). «You Can Learn How To Become More Rational». Business Insider. Consultado em 25 de março de 2014. Cópia arquivada em 10 de agosto de 2018 
  17. Miller, James D. «Rifts in Rationality – New Rambler Review». newramblerreview.com (em inglês). Consultado em 28 de julho de 2018. Cópia arquivada em 28 de julho de 2018 
  18. Machine Intelligence Research Institute. «Inadequate Equilibria: Where and How Civilizations Get Stuck». Consultado em 13 de maio de 2020. Cópia arquivada em 21 de setembro de 2020 
  19. Snyder, Daniel D. (18 de julho de 2011). «'Harry Potter' and the Key to Immortality». The Atlantic. Consultado em 13 de junho de 2022. Cópia arquivada em 23 de dezembro de 2015 
  20. Packer, George (2011). «No Death, No Taxes: The Libertarian Futurism of a Silicon Valley Billionaire». The New Yorker. p. 54. Consultado em 12 de outubro de 2015. Cópia arquivada em 14 de dezembro de 2016 
  21. Matthews, Dylan; Pinkerton, Byrd (19 de junho de 2019). «He co-founded Skype. Now he's spending his fortune on stopping dangerous AI.». Vox. Consultado em 22 de março de 2020. Cópia arquivada em 6 de março de 2020 
  22. Saperstein, Gregory (9 de agosto de 2012). «5 Minutes With a Visionary: Eliezer Yudkowsky». CNBC. Consultado em 9 de setembro de 2017. Cópia arquivada em 1 de agosto de 2017 
  23. Elia-Shalev, Asaf (1 de dezembro de 2022). «Synagogues are joining an 'effective altruism' initiative. Will the Sam Bankman-Fried scandal stop them?». Jewish Telegraphic Agency. Consultado em 4 de dezembro de 2023 
  24. Yudkowsky, Eliezer (4 de outubro de 2007). «Avoiding your belief's real weak points». LessWrong. Consultado em 30 de abril de 2021. Cópia arquivada em 2 de maio de 2021 

Ligações externas

[editar | editar código-fonte]
Wikiquote
Wikiquote
O Wikiquote possui citações de ou sobre: Eliezer Yudkowsky
Commons
Commons
O Commons possui imagens e outros ficheiros sobre Eliezer Yudkowsky