엘리에저 유도코프스키
Eliezer Yudkowsky엘리에저 유도코프스키 | |
---|---|
![]() | |
태어난 | 엘리에저 슐로모 유도코프스키 ( 1979년 9월 11일 ( |
조직 | 기계지능연구소 |
로 알려져 있다 | 친숙한 인공지능이라는 용어의 합성 AI 안전성 연구 합리성 글쓰기 Less Wrong 설립자 |
웹 사이트 | www |
Eliezer Shlomo Yudkowsky(1979년 9월 11일 ~ )는 미국의 의사결정 및 인공지능([1][2]AI) 이론가이자 작가이며, 친근한 인공지능의 개념을 널리 보급한 것으로 잘 알려져 있습니다.그는 캘리포니아 [4]버클리 소재 민간 연구 비영리단체인 MIRI(Machine Intelligence Research Institute)의 공동[3] 설립자 겸 연구원입니다.폭주하는 지능의 폭발 가능성에 대한 그의 연구는 Nick Bostrom의 Super Intelligence: Paths, Dangerous,[5] Strategies에 영향을 미쳤다.
인공지능 안전 관련 업무
소프트웨어 시스템의 목표 학습 및 인센티브
차세대 AI 시스템에 의해 야기되는 안전 문제에 대한 Yudkowsky의 견해는 AI 학부 교과서 Stuart Russell과 Peter Norvig의 인공지능: 모던한 어프로치Russell과 Norvig는 손으로 범용 목표를 공식적으로 지정하는 것이 어렵다는 점을 지적하면서 자율적이고 적응적인 시스템이 시간에 따라 올바른 행동을 학습하도록 설계되어야 한다는 Yudkowsky의 제안을 인용합니다.
Yudkowsky (2008)[6]는 Friendly AI를 설계하는 방법에 대해 더 자세히 설명합니다.그는 친근감(인간을 해치지 않으려는 욕망)은 처음부터 설계되어야 하지만 디자이너는 자신의 디자인이 결점이 있을 수 있고 시간이 지남에 따라 로봇이 배우고 진화할 것이라는 것을 인식해야 한다고 주장한다.따라서 과제는 메커니즘 설계 중 하나입니다. 즉, 견제와 균형 시스템 하에서 AI를 진화시키는 메커니즘을 설계하고 이러한 변화에도 [1]우호적으로 유지될 시스템 유틸리티 기능을 제공하는 것입니다.
어디 잘못 설계된 목표로 자율적 의사 결정 시스템 인간을 학대하고 기본적 인센티브가 가질 수 있는 도구적 수렴한 문제에 대응하여, Yudkowsky과 다른 MIRI 연구원들은 일도 그들의 목표를 misspecified 있는 안전한 기본 동작을 도출 소프트웨어 에이전트를 지정하기 위해 해야 하도록 권장하였다.[7][2]
능력 예측
I. J. Good에 의해 가설된 지능 폭발 시나리오에서, 재귀적으로 자기 계발적인 AI 시스템은 인간 이하의 일반 지능에서 초지능으로 빠르게 전환됩니다.Nick Bostrom의 2014년 저서 Super Intelligence: Paths, Dangerous, Strategies는 Good의 주장을 상세히 설명하면서, 고급 AI 시스템을 의인화하면 사람들이 지능 폭발의 본질을 오해하게 된다는 Yudkowsky의 글을 인용했다."AI는 순전히 의인화의 결과로서 지능의 급격한 상승을 일으킬 수 있습니다. 인간 성향은 '마을 바보'와 '아인슈타인'을 일반적인 [1][3][6][8]정신의 척도에서 거의 구별할 수 없는 점 대신 지능 척도의 최첨단으로 생각하는 것입니다."
인공지능의 경우: 현대적 접근법, Stuart Russell과 Peter Norvig는 계산 복잡성 이론에서 지능적인 문제 해결에는 알려진 한계가 있다는 이의를 제기합니다. 알고리즘이 다양한 컴퓨터 과학 작업을 얼마나 효율적으로 해결할 수 있는지에 대한 강력한 제한이 있다면 지능의 폭발은 [1]불가능할 수 있습니다.
합리성 글쓰기
2006년부터 2009년까지, Yudkowsky와 Robin Hanson은 Oxford University의 Future of Humanity Institute가 후원하는 인지 및 사회과학 블로그인 Overcepting Bias의 주요 공헌자였다.2009년 2월 Yudkowsky는 "인간 [9][10]합리성의 예술을 정제하는 데 전념하는 커뮤니티 블로그"인 LessWrong을 설립했습니다.'편견 극복'은 그 후 핸슨의 개인 블로그로 기능하고 있다.
Yudkowsky의 철학 및 과학에 관한 300개 이상의 블로그 포스트(원래는 LessWrong과 편견 극복)가 합리성이라는 제목의 전자책으로 출시되었습니다. 2015년 [11]기계지능연구소(MIRI)의 AI에서 좀비로.또한 MIRI는 사회적 [12]비효율성을 주제로 한 Yudkowsky의 2017년 전자책인 Uncuitate Equalria를 출판했습니다.
Yudkowsky는 또한 몇 편의 소설을 썼다.그의 팬픽션 소설인 해리포터와 합리성의 방법은 과학의 [9][13]주제를 설명하기 위해 J. K. 롤링의 해리포터 시리즈의 줄거리 요소를 사용한다.<뉴요커>는 해리 포터와 합리성의 방법론을 [14]"과학적 방법을 통해 해리의 마법에 대해 설명하기 위한 시도"로 롤링의 원작을 다시 말하는 것이라고 묘사했다.
사생활
Yudkowsky는 독학으로[15] 고등학교나 [16]대학에 다니지 않았다.그는 현대정교 [17]유대인으로 자랐다.
학술 출판물
- Yudkowsky, Eliezer (2007). "Levels of Organization in General Intelligence" (PDF). Artificial General Intelligence. Berlin: Springer.
- Yudkowsky, Eliezer (2008). "Cognitive Biases Potentially Affecting Judgement of Global Risks" (PDF). In Bostrom, Nick; Ćirković, Milan (eds.). Global Catastrophic Risks. Oxford University Press. ISBN 978-0199606504.
- Yudkowsky, Eliezer (2008). "Artificial Intelligence as a Positive and Negative Factor in Global Risk" (PDF). In Bostrom, Nick; Ćirković, Milan (eds.). Global Catastrophic Risks. Oxford University Press. ISBN 978-0199606504.
- Yudkowsky, Eliezer (2011). "Complex Value Systems in Friendly AI" (PDF). Artificial General Intelligence: 4th International Conference, AGI 2011, Mountain View, CA, USA, August 3–6, 2011. Berlin: Springer.
- Yudkowsky, Eliezer (2012). "Friendly Artificial Intelligence". In Eden, Ammon; Moor, James; Søraker, John; et al. (eds.). Singularity Hypotheses: A Scientific and Philosophical Assessment. The Frontiers Collection. Berlin: Springer. pp. 181–195. doi:10.1007/978-3-642-32560-1_10. ISBN 978-3-642-32559-5.
- Bostrom, Nick; Yudkowsky, Eliezer (2014). "The Ethics of Artificial Intelligence" (PDF). In Frankish, Keith; Ramsey, William (eds.). The Cambridge Handbook of Artificial Intelligence. New York: Cambridge University Press. ISBN 978-0-521-87142-6.
- LaVictoire, Patrick; Fallenstein, Benja; Yudkowsky, Eliezer; Bárász, Mihály; Christiano, Paul; Herreshoff, Marcello (2014). "Program Equilibrium in the Prisoner's Dilemma via Löb's Theorem". Multiagent Interaction without Prior Coordination: Papers from the AAAI-14 Workshop. AAAI Publications.
- Soares, Nate; Fallenstein, Benja; Yudkowsky, Eliezer (2015). "Corrigibility" (PDF). AAAI Workshops: Workshops at the Twenty-Ninth AAAI Conference on Artificial Intelligence, Austin, TX, January 25–26, 2015. AAAI Publications.
「 」를 참조해 주세요.
레퍼런스
- ^ a b c d Russell, Stuart; Norvig, Peter (2009). Artificial Intelligence: A Modern Approach. Prentice Hall. ISBN 978-0-13-604259-4.
- ^ a b Leighton, Jonathan (2011). The Battle for Compassion: Ethics in an Apathetic Universe. Algora. ISBN 978-0-87586-870-7.
- ^ a b Dowd, Maureen (March 26, 2017). "Elon Musk's Billion-Dollar Crusade to Stop the A.I. Apocalypse". Vanity Fair. Archived from the original on July 26, 2018. Retrieved July 28, 2018.
- ^ Kurzweil, Ray (2005). The Singularity Is Near. New York City: Viking Penguin. ISBN 978-0-670-03384-3.
- ^ Ford, Paul (February 11, 2015). "Our Fear of Artificial Intelligence". MIT Technology Review. Archived from the original on March 30, 2019. Retrieved April 9, 2019.
- ^ a b Yudkowsky, Eliezer (2008). "Artificial Intelligence as a Positive and Negative Factor in Global Risk" (PDF). In Bostrom, Nick; Ćirković, Milan (eds.). Global Catastrophic Risks. Oxford University Press. ISBN 978-0199606504. Archived (PDF) from the original on March 2, 2013. Retrieved October 16, 2015.
- ^ Soares, Nate; Fallenstein, Benja; Yudkowsky, Eliezer (2015). "Corrigibility". AAAI Workshops: Workshops at the Twenty-Ninth AAAI Conference on Artificial Intelligence, Austin, TX, January 25–26, 2015. AAAI Publications. Archived from the original on January 15, 2016. Retrieved October 16, 2015.
- ^ Bostrom, Nick (2014). Superintelligence: Paths, Dangers, Strategies. ISBN 978-0199678112.
- ^ a b Miller, James (2012). Singularity Rising. BenBella Books, Inc. ISBN 978-1936661657.
- ^ Miller, James (July 28, 2011). "You Can Learn How To Become More Rational". Business Insider. Archived from the original on August 10, 2018. Retrieved March 25, 2014.
- ^ Miller, James D. "Rifts in Rationality – New Rambler Review". newramblerreview.com. Archived from the original on July 28, 2018. Retrieved July 28, 2018.
- ^ Machine Intelligence Research Institute. "Inadequate Equilibria: Where and How Civilizations Get Stuck". Archived from the original on September 21, 2020. Retrieved May 13, 2020.
- ^ Snyder, Daniel D. (July 18, 2011). "'Harry Potter' and the Key to Immortality". The Atlantic. Archived from the original on December 23, 2015. Retrieved June 13, 2022.
- ^ Packer, George (2011). "No Death, No Taxes: The Libertarian Futurism of a Silicon Valley Billionaire". The New Yorker. p. 54. Archived from the original on December 14, 2016. Retrieved October 12, 2015.
- ^ Matthews, Dylan; Pinkerton, Byrd (June 19, 2019). "He co-founded Skype. Now he's spending his fortune on stopping dangerous AI". Vox. Archived from the original on March 6, 2020. Retrieved March 22, 2020.
- ^ Saperstein, Gregory (August 9, 2012). "5 Minutes With a Visionary: Eliezer Yudkowsky". CNBC. Archived from the original on August 1, 2017. Retrieved September 9, 2017.
- ^ Yudkowsky, Eliezer (October 4, 2007). "Avoiding your belief's real weak points". LessWrong. Archived from the original on May 2, 2021. Retrieved April 30, 2021.
외부 링크

