Элиезер Юдковский - Википедия - Eliezer Yudkowsky

Элиезер Юдковский
Элиезер Юдковский, Стэнфорд 2006 (шаршы дақыл) .jpg
Юдковский сағ Стэнфорд университеті 2006 жылы
Туған (1979-09-11) 1979 жылғы 11 қыркүйек (41 жас)
ҰлтыАмерикандық
ҰйымдастыруМашиналық интеллект зерттеу институты
БелгіліТермин жасау достық жасанды интеллект
Бойынша зерттеу АИ қауіпсіздігі
Рационалды жазу
Негізін қалаушы Аз. Қате
Веб-сайтюдковский.желі

Элиезер Шломо Юдковский (1979 жылы 11 қыркүйекте туған) - американдық жасанды интеллект (AI) зерттеушісі және жазушыны идеясын танымал етуімен танымал достық жасанды интеллект.[1][2] Ол тең құрылтайшы[3] және ғылыми қызметкер Машиналық интеллект зерттеу институты (MIRI), жеке ғылыми коммерциялық емес ұйым Беркли, Калифорния.[4] Оның қашу перспективасындағы жұмысы барлау жарылысы әсер етті Ник Бостром Келіңіздер Суперинтеллект: жолдар, қауіптер, стратегиялар.[5] Ан автодидакт,[6] Юдковский орта мектепте де, колледжде де оқымаған.[7]

Жасанды интеллект қауіпсіздігінде жұмыс істеу

Мақсатты оқыту және бағдарламалық қамтамасыз ету жүйелерін ынталандыру

Юдковскийдің жасанды интеллект жүйелерінің болашақ ұрпақтары туындайтын қауіпсіздік проблемалары туралы көзқарастары жасанды интеллектуалды университеттің оқулықтарында талқыланады, Стюарт Рассел және Питер Норвиг Келіңіздер Жасанды интеллект: қазіргі заманғы тәсіл. Жалпы мақсаттағы мақсаттарды қолмен ресми түрде көрсетудің қиындығын айта отырып, Рассел мен Норвиг Юдковскийдің автономды және адаптивті жүйелер уақыт өткен сайын дұрыс мінез-құлықты үйренуге арналған деген ұсынысын келтіреді:

Юдковский (2008)[8] қалай жобалау туралы толығырақ а Достық интеллект. Ол достықты (адамдарға зиян келтірмеуді) әу бастан ойластыру керек, бірақ дизайнерлер өздерінің дизайндары қате болуы мүмкін екенін және робот уақыт өте келе дамып, дамитынын ескеруі керек деп сендіреді. Осылайша, механизмді жобалаудың міндеті - тежегіштер мен тепе-теңдіктер жүйесі кезінде дамитын жасанды интеллекттің даму механизмін жобалау және жүйелерге осындай өзгерістер кезінде достық болып қалатын қызметтік функциялар беру.[1]

Жауап ретінде аспаптық конвергенция Нашар құрастырылған мақсаттары бар автономды шешімдер қабылдау жүйелері адамдарға қатыгездік танытуға итермелейтін болса, Юдковский және MIRI-дің басқа зерттеушілері мақсатты дұрыс көрсетілмеген күннің өзінде қауіпсіз әдепкі мінез-құлыққа жақындататын бағдарламалық жасақтама агенттерін көрсету бойынша жұмыс жүргізуге кеңес берді.[9][2]

Мүмкіндіктерді болжау

Ішінде барлау жарылысы гипотеза сценарийі I. J. Жақсы, рекурсивті өзін-өзі жетілдіретін жасанды интеллект жүйелері адамзатқа жалпы интеллекттен тез ауысады супер интеллект. Ник Бостром 2014 ж. кітабы Суперинтеллект: жолдар, қауіптер, стратегиялар Юдковскийдің дамыған жасанды интеллект жүйелерін антропоморфизациялау адамдардың интеллектуалды жарылыстың табиғатын дұрыс түсінбеуіне әкелуі мүмкін деген қаупі туралы жазғанына сілтеме жасай отырып, Гудтың дәйегін егжей-тегжейлі бейнелейді. «AI мүмкін шамасы антропоморфизмнің нәтижесіндегі интеллектке күрт секіру, жалпы ақыл-ой масштабындағы айырмашылығы жоқ нүктелердің орнына адамның «ауыл ақымағы» мен «Эйнштейнді» интеллект ауқымының шеткі шектері деп ойлауға бейімділігі ».[1][3][8][10]

Жылы олардың оқулығы жасанды интеллект туралы, Стюарт Рассел және Питер Норвиг ақылды мәселелерді шешудің белгілі шектері бар екеніне қарсылық білдіру есептеу күрделілігі теориясы; егер алгоритмдердің информатиканың әр түрлі міндеттерін қаншалықты тиімді шеше алатындығына қатты шектеулер болса, онда интеллекттің жарылуы мүмкін емес.[1]

Рационалды жазу

2006 және 2009 жылдар аралығында Юдковский және Робин Хансон негізгі салымшылар болды Өтірікті жеңу, демеушілік жасаған когнитивті және әлеуметтік ғылымдар блогы Адамзат институтының болашағы Оксфорд университетінің. 2009 жылдың ақпанында Юдковский құрды Аз. Қате, «адамның парасаттылық өнерін жетілдіруге арналған қауымдастық блогы».[11][12] Өтірікті жеңу содан бері Хансонның жеке блогы ретінде жұмыс істеді.

Юдковскийдің философия мен ғылымға арналған 300-ден астам блогы (бастапқыда жазылған) Аз. Қате және Өтірікті жеңу) электронды кітап ретінде шығарылды Ұтымдылық: AI-ден Zombies-ге дейін бойынша Машиналық интеллект зерттеу институты (MIRI) 2015 ж.[13] MIRI сонымен бірге жариялады Барабар тепе-теңдік, Юдковскийдің 2017 ж. Әлеуметтік тиімсіздік тақырыбындағы электронды кітабы.[14]

Юдковский сонымен қатар бірнеше көркем шығармалар жазды. Оның фанфик роман, Гарри Поттер және рационалдылық әдістері, бастап сюжет элементтерін қолданады Дж. Роулинг Келіңіздер Гарри Поттер ғылымдағы тақырыптарды бейнелеу үшін серия.[11][15] Нью-Йорк сипатталған Гарри Поттер және рационалдылық әдістері Роулингтің түпнұсқасын «Гарридің сиқырлығын ғылыми әдіс арқылы түсіндіру мақсатында» қайта айту ретінде.[16]

Оқу басылымдары

  • Юдковский, Элиезер (2007). «Жалпы интеллекттегі ұйым деңгейлері» (PDF). Жасанды жалпы интеллект. Берлин: Шпрингер.
  • Юдковский, Элиезер (2008). «Ғаламдық тәуекелдердің шешіміне әсер етуі мүмкін когнитивті негіздер» (PDF). Жылы Бостром, Ник; Чиркович, Милан (ред.) Жаһандық катастрофалық тәуекелдер. Оксфорд университетінің баспасы. ISBN  978-0199606504.
  • Юдковский, Элиезер (2008). «Жасанды интеллект жаһандық тәуекелдің жағымды және жағымсыз факторы ретінде» (PDF). Жылы Бостром, Ник; Чиркович, Милан (ред.) Жаһандық катастрофалық тәуекелдер. Оксфорд университетінің баспасы. ISBN  978-0199606504.
  • Юдковский, Элиезер (2011). «Достық интеллекттегі кешенді құндылықтар жүйесі» (PDF). Жасанды жалпы интеллект: 4-ші халықаралық конференция, AGI 2011, Маунтин-Вью, Калифорния, АҚШ, 3-6 тамыз 2011 ж. Берлин: Шпрингер.
  • Юдковский, Элиезер (2012). «Жасанды интеллект». Едемде, Аммон; Мур, Джеймс; Соракер, Джон; т.б. (ред.). Сингулярлық гипотезалары: ғылыми және философиялық бағалау. Шекаралар жинағы. Берлин: Шпрингер. бет.181 –195. дои:10.1007/978-3-642-32560-1_10. ISBN  978-3-642-32559-5.
  • Бостром, Ник; Юдковский, Элиезер (2014). «Жасанды интеллект этикасы» (PDF). Франкта, Кит; Рэмси, Уильям (ред.) Жасанды интеллект туралы Кембридж анықтамалығы. Нью-Йорк: Кембридж университетінің баспасы. ISBN  978-0-521-87142-6.
  • Лавиктуар, Патрик; Фалленштейн, Бенджа; Юдковский, Элиезер; Бараш, Михалы; Кристиано, Павел; Herreshoff, Marcello (2014). «Леб теоремасы арқылы тұтқын дилеммасындағы бағдарлама тепе-теңдігі». Алдын-ала үйлестірусіз мультиагенттік өзара әрекеттесу: AAAI-14 семинарының құжаттары. AAAI басылымдары.
  • Соареш, Нейт; Фалленштейн, Бенджа; Юдковский, Элиезер (2015). «Ықтималдық» (PDF). AAAI семинарлары: Жасанды интеллект бойынша AAAI жиырма тоғызыншы конференциясындағы семинарлар, Остин, Техас, 25-26 қаңтар, 2015. AAAI басылымдары.

Сондай-ақ қараңыз

Әдебиеттер тізімі

  1. ^ а б в г. Рассел, Стюарт; Норвиг, Петр (2009). Жасанды интеллект: қазіргі заманғы тәсіл. Prentice Hall. ISBN  978-0-13-604259-4.
  2. ^ а б Лейтон, Джонатан (2011). Мейірімділік үшін шайқас: апатетикалық әлемдегі этика. Алгора. ISBN  978-0-87586-870-7.
  3. ^ а б Дауд, Морин. «Илон Масктың А.И. Апокалипсисін тоқтату үшін миллиардтаған крест жорығы». атаққұмарлық жәрмеңкесі. Алынған 28 шілде, 2018.
  4. ^ Курцвейл, Рэй (2005). Бірегейлік жақын. Нью-Йорк қаласы: Викинг пингвині. ISBN  978-0-670-03384-3.
  5. ^ Форд, Пол (11 ақпан, 2015). «Біздің жасанды интеллекттен қорқуымыз». MIT Technology шолуы. Алынған 9 сәуір, 2019.
  6. ^ Мэттьюс, Дилан; Пинкертон, Берд (19 маусым, 2019). «Ол Skype-ті құрды. Енді ол өзінің дәулетін қауіпті AI тоқтатуға жұмсайды». Vox.
  7. ^ Саперштейн, Григорий (9 тамыз 2012). «Көрерменмен бірге 5 минут: Элиезер Юдковский».
  8. ^ а б Юдковский, Элиезер (2008). «Жасанды интеллект жаһандық тәуекелдің жағымды және жағымсыз факторы ретінде» (PDF). Жылы Бостром, Ник; Чиркович, Милан (ред.) Жаһандық катастрофалық тәуекелдер. Оксфорд университетінің баспасы. ISBN  978-0199606504.
  9. ^ Соареш, Нейт; Фалленштейн, Бенджа; Юдковский, Элиезер (2015). «Ықтималдық». AAAI семинарлары: жасанды интеллект бойынша AAAI жиырма тоғызыншы конференциясындағы семинарлар, Остин, Техас, 25-26 қаңтар, 2015. AAAI басылымдары.
  10. ^ Бостром, Ник (2014). Суперинтеллект: жолдар, қауіптер, стратегиялар. ISBN  978-0199678112.
  11. ^ а б Миллер, Джеймс (2012). Бірегейліктің көтерілуі. BenBella Books, Inc. ISBN  978-1936661657.
  12. ^ Миллер, Джеймс (2011 жылғы 28 шілде). «Сіз қалай рационалды болуға болатындығын біле аласыз». Business Insider. Алынған 25 наурыз, 2014.
  13. ^ Миллер, Джеймс Д. «Рационалдылықтағы жік - жаңа рамблерлік шолу». newramblerreview.com. Алынған 28 шілде, 2018.
  14. ^ Машиналық интеллект зерттеу институты. «Барабар тепе-теңдік: өркениеттер қайда және қалай кептеліп қалады».
  15. ^ «'Гарри Поттер' және өлместіктің кілті '', Даниэль Снайдер, Атлант
  16. ^ Пакер, Джордж (2011). «Өлім жоқ, салық жоқ: Кремний алқабындағы миллиардердің либертариандық футуризмі». Нью-Йорк: 54. Алынған 12 қазан, 2015.

Сыртқы сілтемелер