Eliezer Yudkowsky
Eliezer Yudkowsky | |
---|---|
Yudkowsky na Universidade Stanford em 2006 | |
Nome completo | Eliezer Shlomo[a] Yudkowsky |
Conhecido(a) por | Fundador do Machine Intelligence Research Institute Criação do termo inteligência artificial amigável Pesquisas em segurança da inteligência artificial Escrita racional Criador do LessWrong |
Nascimento | 11 de setembro de 1979 (45 anos) |
Eliezer S. Yudkowsky (/ˌɛliˈɛzər ˌjʌdˈkaʊski/ EH-lee-EH-zər YUD-KOW-skee;[1] nascido em 11 de setembro de 1979) é um pesquisador americano de inteligência artificial[2][3][4][5] e escritor sobre teoria da decisão e ética, mais conhecido por popularizar ideias relacionadas à inteligência artificial amigável.[6][7] É o fundador e investigador do Machine Intelligence Research Institute (MIRI), uma organização privada de investigação sem fins lucrativos sediada em Berkeley, Califórnia.[8] O seu trabalho sobre a perspectiva de uma explosão de inteligência descontrolada influenciou o livro de 2014 do filósofo Nick Bostrom, Superintelligence: Paths, Dangers, Strategies.[9]
Trabalho em segurança da inteligência artificial
[editar | editar código-fonte]Aprendizagem de metas e incentivos em sistemas de software
[editar | editar código-fonte]As opiniões de Yudkowsky sobre os desafios de segurança que as futuras gerações de sistemas de IA representam são discutidas no livro de graduação de Stuart Russell e Peter Norvig, Artificial Intelligence: A Modern Approach. Observando a dificuldade de especificar formalmente objetivos de uso geral manualmente, Russell e Norvig citam a proposta de Yudkowsky de que os sistemas autônomos e adaptativos sejam projetados para aprender o comportamento correto ao longo do tempo:
Yudkowsky (2008)[10] entra em mais detalhes sobre como projetar uma IA amigável. Ele afirma que a simpatia (o desejo de não prejudicar os seres humanos) deve ser projetada desde o início, mas que os projetistas devem reconhecer que seus próprios projetos podem ter falhas e que o robô aprenderá e evoluirá com o tempo. Assim, o desafio é um projeto de mecanismo - projetar um mecanismo para a evolução da IA sob um sistema de verificações e equilíbrios e dar aos sistemas funções de utilidade que permanecerão amigáveis em face de tais mudanças.[6]
Em resposta à preocupação com a convergência instrumental, de que os sistemas autônomos de tomada de decisão com metas mal projetadas teriam incentivos padrão para maltratar os seres humanos, Yudkowsky e outros pesquisadores do MIRI recomendaram que se trabalhasse para especificar agentes de software que convergissem para comportamentos padrão seguros, mesmo quando suas metas fossem mal especificadas.[11][7]
Previsão de capacidades
[editar | editar código-fonte]No cenário de explosão da inteligência, hipotetizado por I. J. Good, os sistemas de IA com autoaperfeiçoamento recursivo passam rapidamente da inteligência geral subumana para a superinteligência. O livro de 2014 de Nick Bostrom, Superintelligence: Paths, Dangers, Strategies, descreve detalhadamente o argumento de Good, ao mesmo tempo em que cita Yudkowsky sobre o risco de que a antropomorfização de sistemas avançados de IA faça com que as pessoas não compreendam a natureza de uma explosão de inteligência. “A IA pode dar um salto aparentemente acentuado na inteligência puramente como resultado do antropomorfismo, a tendência humana de pensar no ‘idiota da aldeia’ e em ‘Einstein’ como os extremos da escala de inteligência, em vez de pontos quase indistinguíveis na escala das mentes em geral.”[6][10][12]
Em Artificial Intelligence: A Modern Approach, Russell e Norvig levantam a objeção de que existem limites conhecidos para a resolução inteligente de problemas a partir da teoria da complexidade computacional; se houver fortes limites na eficiência com que os algoritmos podem resolver várias tarefas, uma explosão de inteligência pode não ser possível.[6]
Artigo de opinião na revista Time
[editar | editar código-fonte]Em um artigo de opinião publicado em 2023 na revista Time, Yudkowsky discutiu o risco da inteligência artificial e propôs medidas que poderiam ser tomadas para limitá-lo, incluindo a interrupção total do desenvolvimento da IA,[13][14] ou até mesmo a “destruição de um centro de dados desonesto por meio de um ataque aéreo”.[5] O artigo ajudou a introduzir o debate sobre o alinhamento da IA na mídia, levando um repórter a fazer uma pergunta ao presidente Joe Biden sobre a segurança da IA em uma coletiva de imprensa.[2]
Escrita racional
[editar | editar código-fonte]Entre 2006 e 2009, Yudkowsky e Robin Hanson foram os principais colaboradores do Overcoming Bias, um blog de ciências cognitivas e sociais patrocinado pelo Future of Humanity Institute da Universidade de Oxford. Em fevereiro de 2009, Yudkowsky fundou o LessWrong, um “blog comunitário dedicado a refinar a arte da racionalidade humana”.[15][16] Desde então, o Overcoming Bias tem funcionado como o blog pessoal de Hanson.
Mais de 300 publicações do blog de Yudkowsky sobre filosofia e ciência (originalmente escritas no LessWrong e no Overcoming Bias) foram lançadas como um livro digital pelo MIRI em 2015, intitulado Rationality: From AI to Zombies.[17] O MIRI também publicou Inadequate Equilibria, um livro digital de 2017 de Yudkowsky sobre ineficiências sociais.[18]
Yudkowsky também escreveu várias obras de ficção. Sua fanfic Harry Potter and the Methods of Rationality usa elementos do enredo de Harry Potter, de J. K. Rowling, para ilustrar tópicos científicos.[15][19] O The New Yorker descreveu Harry Potter and the Methods of Rationality como uma recontagem do original de Rowling “em uma tentativa de explicar a magia de Harry por meio do método científico”.[20]
Vida pessoal
[editar | editar código-fonte]Yudkowsky é um autodidata[21] e não frequentou o ensino médio nem a faculdade.[22] Ele foi criado como judeu ortodoxo moderno, mas não se identifica religiosamente como judeu.[23][24]
Publicações acadêmicas
[editar | editar código-fonte]- Yudkowsky, Eliezer (2007). «Levels of Organization in General Intelligence» (PDF). Artificial General Intelligence. Berlin: Springer
- Yudkowsky, Eliezer (2008). «Cognitive Biases Potentially Affecting Judgement of Global Risks» (PDF). In: Bostrom, Nick; Ćirković, Milan. Global Catastrophic Risks. [S.l.]: Oxford University Press. ISBN 978-0199606504
- Yudkowsky, Eliezer (2008). «Artificial Intelligence as a Positive and Negative Factor in Global Risk» (PDF). In: Bostrom, Nick; Ćirković, Milan. Global Catastrophic Risks. [S.l.]: Oxford University Press. ISBN 978-0199606504
- Yudkowsky, Eliezer (2011). «Complex Value Systems in Friendly AI» (PDF). Artificial General Intelligence: 4th International Conference, AGI 2011, Mountain View, CA, USA, August 3–6, 2011. Berlin: Springer
- Yudkowsky, Eliezer (2012). «Friendly Artificial Intelligence». In: Eden, Ammon; Moor, James; Søraker, John; et al. Singularity Hypotheses: A Scientific and Philosophical Assessment. Col: The Frontiers Collection. Berlin: Springer. pp. 181–195. ISBN 978-3-642-32559-5. doi:10.1007/978-3-642-32560-1_10
- Bostrom, Nick; Yudkowsky, Eliezer (2014). «The Ethics of Artificial Intelligence» (PDF). In: Frankish, Keith; Ramsey, William. The Cambridge Handbook of Artificial Intelligence. New York: Cambridge University Press. ISBN 978-0-521-87142-6
- LaVictoire, Patrick; Fallenstein, Benja; Yudkowsky, Eliezer; Bárász, Mihály; Christiano, Paul; Herreshoff, Marcello (2014). «Program Equilibrium in the Prisoner's Dilemma via Löb's Theorem». Multiagent Interaction without Prior Coordination: Papers from the AAAI-14 Workshop. AAAI Publications. Consultado em 16 de outubro de 2015. Cópia arquivada em 15 de abril de 2021
- Soares, Nate; Fallenstein, Benja; Yudkowsky, Eliezer (2015). «Corrigibility» (PDF). AAAI Workshops: Workshops at the Twenty-Ninth AAAI Conference on Artificial Intelligence, Austin, TX, January 25–26, 2015. AAAI Publications
Veja também
[editar | editar código-fonte]Notas
[editar | editar código-fonte]- ↑ Ou Solomon
Referências
[editar | editar código-fonte]- ↑ "Eliezer Yudkowsky on “Three Major Singularity Schools”" no YouTube. February 16, 2012. Timestamp 1:18.
- ↑ a b Silver, Nate (10 de abril de 2023). «How Concerned Are Americans About The Pitfalls Of AI?». FiveThirtyEight. Consultado em 17 de abril de 2023. Cópia arquivada em 17 de abril de 2023
- ↑ Ocampo, Rodolfo (4 de abril de 2023). «I used to work at Google and now I'm an AI researcher. Here's why slowing down AI development is wise». The Conversation (em inglês). Consultado em 19 de junho de 2023. Cópia arquivada em 11 de abril de 2023
- ↑ Gault, Matthew (31 de março de 2023). «AI Theorist Says Nuclear War Preferable to Developing Advanced AI». Vice (em inglês). Consultado em 19 de junho de 2023. Cópia arquivada em 15 de maio de 2023
- ↑ a b Hutson, Matthew (16 de maio de 2023). «Can We Stop Runaway A.I.?». The New Yorker (em inglês). ISSN 0028-792X. Consultado em 19 de maio de 2023. Cópia arquivada em 19 de maio de 2023
- ↑ a b c d Russell, Stuart; Norvig, Peter (2009). Artificial Intelligence: A Modern Approach. [S.l.]: Prentice Hall. ISBN 978-0-13-604259-4
- ↑ a b Leighton, Jonathan (2011). The Battle for Compassion: Ethics in an Apathetic Universe. [S.l.]: Algora. ISBN 978-0-87586-870-7
- ↑ Kurzweil, Ray (2005). The Singularity Is Near. New York City: Viking Penguin. ISBN 978-0-670-03384-3
- ↑ Ford, Paul (11 de fevereiro de 2015). «Our Fear of Artificial Intelligence». MIT Technology Review (em inglês). Consultado em 9 de abril de 2019. Cópia arquivada em 30 de março de 2019
- ↑ a b Yudkowsky, Eliezer (2008). «Artificial Intelligence as a Positive and Negative Factor in Global Risk» (PDF). In: Bostrom, Nick; Ćirković, Milan. Global Catastrophic Risks. [S.l.]: Oxford University Press. ISBN 978-0199606504. Consultado em 16 de outubro de 2015. Cópia arquivada (PDF) em 2 de março de 2013
- ↑ Soares, Nate; Fallenstein, Benja; Yudkowsky, Eliezer (2015). «Corrigibility». AAAI Workshops: Workshops at the Twenty-Ninth AAAI Conference on Artificial Intelligence, Austin, TX, January 25–26, 2015. AAAI Publications. Consultado em 16 de outubro de 2015. Cópia arquivada em 15 de janeiro de 2016
- ↑ Bostrom, Nick (2014). Superintelligence: Paths, Dangers, Strategies. [S.l.]: Oxford University Press. ISBN 978-0199678112
- ↑ Moss, Sebastian (30 de março de 2023). «"Be willing to destroy a rogue data center by airstrike" - leading AI alignment researcher pens Time piece calling for ban on large GPU clusters». Data Center Dynamics. Consultado em 17 de abril de 2023. Cópia arquivada em 17 de abril de 2023
- ↑ Ferguson, Niall (9 de abril de 2023). «The Aliens Have Landed, and We Created Them». Bloomberg. Consultado em 17 de abril de 2023. Cópia arquivada em 9 de abril de 2023
- ↑ a b Miller, James (2012). Singularity Rising. [S.l.]: BenBella Books, Inc. ISBN 978-1936661657
- ↑ Miller, James (28 de julho de 2011). «You Can Learn How To Become More Rational». Business Insider. Consultado em 25 de março de 2014. Cópia arquivada em 10 de agosto de 2018
- ↑ Miller, James D. «Rifts in Rationality – New Rambler Review». newramblerreview.com (em inglês). Consultado em 28 de julho de 2018. Cópia arquivada em 28 de julho de 2018
- ↑ Machine Intelligence Research Institute. «Inadequate Equilibria: Where and How Civilizations Get Stuck». Consultado em 13 de maio de 2020. Cópia arquivada em 21 de setembro de 2020
- ↑ Snyder, Daniel D. (18 de julho de 2011). «'Harry Potter' and the Key to Immortality». The Atlantic. Consultado em 13 de junho de 2022. Cópia arquivada em 23 de dezembro de 2015
- ↑ Packer, George (2011). «No Death, No Taxes: The Libertarian Futurism of a Silicon Valley Billionaire». The New Yorker. p. 54. Consultado em 12 de outubro de 2015. Cópia arquivada em 14 de dezembro de 2016
- ↑ Matthews, Dylan; Pinkerton, Byrd (19 de junho de 2019). «He co-founded Skype. Now he's spending his fortune on stopping dangerous AI.». Vox. Consultado em 22 de março de 2020. Cópia arquivada em 6 de março de 2020
- ↑ Saperstein, Gregory (9 de agosto de 2012). «5 Minutes With a Visionary: Eliezer Yudkowsky». CNBC. Consultado em 9 de setembro de 2017. Cópia arquivada em 1 de agosto de 2017
- ↑ Elia-Shalev, Asaf (1 de dezembro de 2022). «Synagogues are joining an 'effective altruism' initiative. Will the Sam Bankman-Fried scandal stop them?». Jewish Telegraphic Agency. Consultado em 4 de dezembro de 2023
- ↑ Yudkowsky, Eliezer (4 de outubro de 2007). «Avoiding your belief's real weak points». LessWrong. Consultado em 30 de abril de 2021. Cópia arquivada em 2 de maio de 2021
Ligações externas
[editar | editar código-fonte]- Rationality: From AI to Zombies (livro digital)