Институт будущего жизни - Future of Life Institute
Координаты : 42.3736158 ° N 71.1097335 ° W 42 ° 22′25 ″ с.ш. 71 ° 06′35 ″ з.д. /
Сокращенное название | FLI |
---|---|
Формирование | Март 2014 г . |
Учредители |
|
Тип | Некоммерческий исследовательский институт |
47-1052538 | |
Легальное положение | Активный |
Цель | Снижение экзистенциального риска , особенно за счет передового искусственного интеллекта |
Место нахождения | |
Президент |
Макс Тегмарк |
Веб-сайт | futureoflife.org |
Институт будущего жизни ( FLI ) - это некоммерческая организация, которая работает над снижением глобальных катастрофических и экзистенциальных рисков, с которыми сталкивается человечество, особенно рисков существования передового искусственного интеллекта (ИИ). Работа Института состоит из трех основных направлений: предоставление грантов для снижения риска, просветительская работа и пропаганда в рамках Организации Объединенных Наций, правительства США и учреждений Европейского союза. Его основателями являются космолог из Массачусетского технологического института Макс Тегмарк и соучредитель Skype Яан Таллинн , а в совет советников входит предприниматель Илон Маск .
Миссия
Миссия FLI - снизить глобальные катастрофические и экзистенциальные риски, связанные с мощными технологиями. FLI уделяет особое внимание потенциальным рискам для человечества, связанным с развитием человеческого или сверхразумного общего искусственного интеллекта (AGI), но также работает с рисками, связанными с биотехнологиями, ядерным оружием и изменением климата. Работа Института состоит из предоставления грантов для снижения рисков, просветительской работы и защиты интересов в учреждениях Организации Объединенных Наций, правительства США и Европейского Союза.
Действующие лица
Институт был основан в марте 2014 года космологом Массачусетского технологического института Максом Тегмарком , соучредителем Skype Яаном Таллинном , исследователем DeepMind Викторией Краковной, докторантом Университета Тафтса Мейей Чита-Тегмарк и физиком UCSC Энтони Агирре . В научный консультативный совет института, состоящий из 14 человек, входят ученые-компьютерщики Стюарт Дж. Рассел и Франческа Росси , биолог Джордж Черч , космолог Сол Перлмуттер , астрофизик Сандра Фабер , физик-теоретик Фрэнк Вильчек , предприниматель Илон Маск , а также актеры и научные коммуникаторы Алан Алда и Морган Фриман. (а также космолог Стивен Хокинг перед его смертью в 2018 году).
Конференции
В 2014 году Институт будущего жизни провел свое открытие в Массачусетском технологическом институте : панельная дискуссия на тему «Будущее технологий: преимущества и риски», модератором которой стал Алан Алда . Участниками дискуссии были синтетический биолог Джордж Черч , генетик Тинг Ву , экономист Эндрю Макафи , физик и лауреат Нобелевской премии Фрэнк Вильчек и соучредитель Skype Яан Таллинн .
С 2015 года FLI проводит два раза в год конференции, на которые собираются ведущие разработчики искусственного интеллекта из академических кругов и промышленности. На сегодняшний день прошли следующие конференции:
- Конференция «Будущее искусственного интеллекта: возможности и проблемы» в Пуэрто-Рико (2015 г.). Цель состояла в том, чтобы определить перспективные направления исследований, которые помогут максимизировать будущие преимущества ИИ. На конференции Институт распространил открытое письмо о безопасности ИИ, которое впоследствии было подписано Стивеном Хокингом , Илоном Маском и многими экспертами в области искусственного интеллекта.
- Конференция Beneficial AI в Асиломаре, Калифорния (2017 г.), частное собрание тех, кого New York Times назвала «сильными приверженцами ИИ» (включая Яна ЛеКуна , Илона Маска и Ника Бострома ). Институт опубликовал набор принципов ответственного развития ИИ, который стал результатом обсуждения на конференции, подписанный Йошуа Бенджио , Янном ЛеКуном и многими другими исследователями ИИ. Эти принципы повлияли на Регулирование искусственного интеллекта и последующие инициативы, такие как Принципы ОЭСР по искусственному интеллекту.
- Благоприятная конференция AGI в Пуэрто-Рико (2019). На этой встрече обсуждались долгосрочные вопросы обеспечения того, чтобы общий искусственный интеллект приносил пользу человечеству.
Глобальная исследовательская программа
Исследовательская программа FLI началась в 2015 году с первоначального пожертвования в размере 10 миллионов долларов от Илона Маска. В отличие от типичных исследований ИИ, эта программа направлена на то, чтобы сделать ИИ более безопасным или более полезным для общества, а не просто более мощным. В этом начальном раунде 37 исследовательских проектов получили в общей сложности 7 миллионов долларов. В июле 2021 года FLI объявила о запуске новой грантовой программы на 25 миллионов долларов, финансируемой российско-канадским программистом Виталиком Бутериным .
В прессе
- «Борьба за определение того, когда ИИ подвержен« высокому риску »» в Wired .
- «Смертоносное автономное оружие существует; оно должно быть запрещено» в IEEE Spectrum .
- «Соединенные Штаты и союзники протестуют против переговоров ООН о запрещении ядерного оружия» в The New York Times .
- «Является ли искусственный интеллект угрозой?» в The Chronicle of Higher Education , включая интервью с основателями FLI Максом Тегмарком , Яаном Таллинном и Викторией Краковной.
- «Но что для меня будет означать конец человечества?», Интервью с Максом Тегмарком об идеях, лежащих в основе FLI в The Atlantic .
- Майкл дель Кастильо (15 января 2015 г.). «Бренд стартапа не скрывает апокалиптических подтекстов письма, подписанного Илоном Маском» . Выскочка Деловой журнал .
Смотрите также
- Институт будущего человечества
- Центр изучения экзистенциального риска
- Глобальный катастрофический риск
- Leverhulme Center for the Future of Intelligence (Центр разведки будущего)
- Научно-исследовательский институт машинного интеллекта
- Пропасть: экзистенциальный риск и будущее человечества