Является ли сверхразумный ИИ экзистенциальным риском - Ник Бостром об ASI

Оригинальное название: Is Superintelligent AI an Existential Risk? - Nick Bostrom on ASI Ссылка на оригинальное видео: Дата публикации оригинала: 20 февраля 2021 г. Переведенное описание: Искусственный сверхинтеллект или сверхинтеллект вообще — это гипотетический агент, обладающий интеллектом, намного превосходящим интеллект самых ярких и одаренных человеческих умов. Согласно самой популярной версии гипотезы сингулярности, называемой взрывом интеллекта, обновляемый интеллектуальный агент в конечном итоге вступит в «безудержную реакцию» циклов самосовершенствования, при этом каждое новое, более разумное поколение появляется все быстрее, вызывая «взрыв». в интеллекте и в результате появился мощный сверхразум, качественно превосходящий весь человеческий интеллект. Модель «интеллектуального взрыва» Ай-Джея Гуда предсказывает, что будущий сверхразум вызовет сингулярность. Четыре опроса исследователей искусственного интеллекта, проведенные в 2012 и 2013 годах Ником Бостромом и Винсентом К. Мюллером, показали среднюю оценку вероятности в 50% того, что общий искусственный интеллект или AGI будет разработан к 2040–2050 годам. Общественные деятели, такие как Стивен Хокинг и Илон Маск, выразили обеспокоенность тем, что полный искусственный интеллект или сильный ИИ могут привести к вымиранию человечества. Но последствия сингулярности и ее потенциальная польза или вред для человечества активно обсуждаются. Философ Ник Бостром определяет экзистенциальный риск как риск, при котором событие уровня вымирания не только возможно, но и вероятно. Он утверждает, что продвинутый искусственный интеллект «вероятно» будет представлять собой экзистенциальный риск. Кроме того, временные рамки также являются важным фактором, поскольку сверхразум может решить действовать быстро, прежде чем люди смогут отреагировать каким-либо противодействующим действием. Сверхразум может решить превентивно уничтожить все человечество по причинам, которые могут быть нам непонятны. Существует также вероятность того, что сверхразум может попытаться колонизировать Вселенную. Сверхразум может сделать это, чтобы максимизировать объем вычислений, которые он может выполнить, или получить сырье для производства новых суперкомпьютеров. Хотя беспокойство по поводу таких сценариев может показаться паникером в нынешнем мире, где существует только узкий ИИ, мы не знаем, сколько времени это займет и возможно ли вообще разработать безопасный искусственный сверхразум, который разделяет наши цели. Таким образом, нам лучше уже сегодня начать планировать появление АСИ... Пока мы еще можем! #ИИ #АСИ #AGI ПОДПИСЫВАЙТЕСЬ на наш канал «Время науки»: ПОДДЕРЖИТЕ нас на Patreon: КУПИТЬ товары Science Time: Источники: Ник Бостром выступает в Google: Суперинтеллект
Back to Top