Возможно, мы проиграли | ALI

Научитесь работать с нейросетями — регистрируйтесь на бесплатный вебинар от университета Зерокодинга: Плати часть, а остальное потом с Долями от Тинькофф — ______________________________________________________________________ Человечество очень близко подобралось к потенциальной черте, которую многие исследователи искусственного интеллекта называют “технологическая сингулярность“. Пересечение этого рубежа связывают с появлением на планете сверхинтеллектуального агента, действия которого для нас будут невычислимы. В основу ролика легла статья Элиезера Юдковского “Искусственный интеллект как позитивный и негативный фактор глобального риска.“ ______________________________________________________________________ Патреон: Бусти: Инстаграм: ______________________________________________________________________ Источники: ______________________________________________________________________ 00:00 – Грядущая технологическая Сингулярность. 03:00 – Последние новости ИИ. 07:30 – Элиезер Юдковский. 08:26 – Типы искусственного интеллекта. 13:15 – Антропоморфизация. 16:45 – Мысленный эксперимент. 20:30 – Чёрный ящик. 21:40 – Проблема согласования ИИ. 32:25 – Инструментальные цели сверхинтеллекта. 34:25 – Чем люди отличаются от машин? 38:30 – Стремление ИИ к власти. 39:45 – Слабый сверхинтеллект. 41:10 – Нанотехнология. 42:45 – Клетка для сверхразума. 46:35 – Дартмутский семинар. 48:15 – Экспоненциальный рост. 52:45 – Коллективный разум против ИИ. 01:00:00 – Аугментация человека. 01:02:33 – Сознание у машины? 01:06:45 – Разработчикам ИИ наплевать? ______________________________________________________________________ erid: LdtCK1qaY erid: Kra23uqNG
Back to Top