Институт будущего жизни - Future of Life Institute

Координаты : 42.3736158 ° N 71.1097335 ° W 42 ° 22′25 ″ с.ш. 71 ° 06′35 ″ з.д. /  / 42.3736158; -71.1097335

Институт будущего жизни
Логотип Института Будущего Жизни
Сокращенное название FLI
Формирование Март 2014 г . ; 7 лет назад ( 2014-03 )
Учредители
Тип Некоммерческий исследовательский институт
47-1052538
Легальное положение Активный
Цель Снижение экзистенциального риска , особенно за счет передового искусственного интеллекта
Место нахождения
Президент
Макс Тегмарк
Веб-сайт futureoflife.org

Институт будущего жизни ( FLI ) - это некоммерческая организация, которая работает над снижением глобальных катастрофических и экзистенциальных рисков, с которыми сталкивается человечество, особенно рисков существования передового искусственного интеллекта (ИИ). Работа Института состоит из трех основных направлений: предоставление грантов для снижения риска, просветительская работа и пропаганда в рамках Организации Объединенных Наций, правительства США и учреждений Европейского союза. Его основателями являются космолог из Массачусетского технологического института Макс Тегмарк и соучредитель Skype Яан Таллинн , а в совет советников входит предприниматель Илон Маск .

Миссия

Макс Тегмарк , профессор Массачусетского технологического института , один из основателей и нынешний президент Института будущего жизни.

Миссия FLI - снизить глобальные катастрофические и экзистенциальные риски, связанные с мощными технологиями. FLI уделяет особое внимание потенциальным рискам для человечества, связанным с развитием человеческого или сверхразумного общего искусственного интеллекта (AGI), но также работает с рисками, связанными с биотехнологиями, ядерным оружием и изменением климата. Работа Института состоит из предоставления грантов для снижения рисков, просветительской работы и защиты интересов в учреждениях Организации Объединенных Наций, правительства США и Европейского Союза.

Действующие лица

Институт был основан в марте 2014 года космологом Массачусетского технологического института Максом Тегмарком , соучредителем Skype Яаном Таллинном , исследователем DeepMind Викторией Краковной, докторантом Университета Тафтса Мейей Чита-Тегмарк и физиком UCSC Энтони Агирре . В научный консультативный совет института, состоящий из 14 человек, входят ученые-компьютерщики Стюарт Дж. Рассел и Франческа Росси , биолог Джордж Черч , космолог Сол Перлмуттер , астрофизик Сандра Фабер , физик-теоретик Фрэнк Вильчек , предприниматель Илон Маск , а также актеры и научные коммуникаторы Алан Алда и Морган Фриман. (а также космолог Стивен Хокинг перед его смертью в 2018 году).

Конференции

В 2014 году Институт будущего жизни провел свое открытие в Массачусетском технологическом институте : панельная дискуссия на тему «Будущее технологий: преимущества и риски», модератором которой стал Алан Алда . Участниками дискуссии были синтетический биолог Джордж Черч , генетик Тинг Ву , экономист Эндрю Макафи , физик и лауреат Нобелевской премии Фрэнк Вильчек и соучредитель Skype Яан Таллинн .

С 2015 года FLI проводит два раза в год конференции, на которые собираются ведущие разработчики искусственного интеллекта из академических кругов и промышленности. На сегодняшний день прошли следующие конференции:

  • Конференция «Будущее искусственного интеллекта: возможности и проблемы» в Пуэрто-Рико (2015 г.). Цель состояла в том, чтобы определить перспективные направления исследований, которые помогут максимизировать будущие преимущества ИИ. На конференции Институт распространил открытое письмо о безопасности ИИ, которое впоследствии было подписано Стивеном Хокингом , Илоном Маском и многими экспертами в области искусственного интеллекта.
  • Конференция Beneficial AI в Асиломаре, Калифорния (2017 г.), частное собрание тех, кого New York Times назвала «сильными приверженцами ИИ» (включая Яна ЛеКуна , Илона Маска и Ника Бострома ). Институт опубликовал набор принципов ответственного развития ИИ, который стал результатом обсуждения на конференции, подписанный Йошуа Бенджио , Янном ЛеКуном и многими другими исследователями ИИ. Эти принципы повлияли на Регулирование искусственного интеллекта и последующие инициативы, такие как Принципы ОЭСР по искусственному интеллекту.
  • Благоприятная конференция AGI в Пуэрто-Рико (2019). На этой встрече обсуждались долгосрочные вопросы обеспечения того, чтобы общий искусственный интеллект приносил пользу человечеству.

Глобальная исследовательская программа

Исследовательская программа FLI началась в 2015 году с первоначального пожертвования в размере 10 миллионов долларов от Илона Маска. В отличие от типичных исследований ИИ, эта программа направлена ​​на то, чтобы сделать ИИ более безопасным или более полезным для общества, а не просто более мощным. В этом начальном раунде 37 исследовательских проектов получили в общей сложности 7 миллионов долларов. В июле 2021 года FLI объявила о запуске новой грантовой программы на 25 миллионов долларов, финансируемой российско-канадским программистом Виталиком Бутериным .

В прессе

  • «Борьба за определение того, когда ИИ подвержен« высокому риску »» в Wired .
  • «Смертоносное автономное оружие существует; оно должно быть запрещено» в IEEE Spectrum .
  • «Соединенные Штаты и союзники протестуют против переговоров ООН о запрещении ядерного оружия» в The New York Times .
  • «Является ли искусственный интеллект угрозой?» в The Chronicle of Higher Education , включая интервью с основателями FLI Максом Тегмарком , Яаном Таллинном и Викторией Краковной.
  • «Но что для меня будет означать конец человечества?», Интервью с Максом Тегмарком об идеях, лежащих в основе FLI в The Atlantic .
  • Майкл дель Кастильо (15 января 2015 г.). «Бренд стартапа не скрывает апокалиптических подтекстов письма, подписанного Илоном Маском» . Выскочка Деловой журнал .

Смотрите также

использованная литература

внешние ссылки