Татьяна Шаврина — Риски AI (искусственного интеллекта)

Обсуждаем угрозы для выживания человечества, которые могут возникнуть из-за появления сильного искусственного интеллекта (AGI), с Татьяной Шавриной (Kali Novskaya) — разработчиком больших языковых моделей, а также энтузиастом опенсорса и открытого ИИ. Ссылки на ресурсы Татьяны Шавриной: - Telegram-канал Kali Novskaya — - YouTube-серия «COPYLEFT» на канале «Рабкор» — - Блог Татьяны на Хабре — Дополнительные материалы по теме: - Понятное объяснение принципов работы ChatGPT — - Базовое объяснение экзистенциальных рисков от ИИ — - Дебаты по рискам ИИ с Иваном Ямщиковым и Арчетом — - Подборка интересных материалов по теме AI alignment для дальнейшего изучения — Прослушать выпуск как аудиоподкаст: - SoundCloud — - Яндекс Музыка — - Другие агрегаторы подкастов — Поддержи проект RationalAnswer: - Patreon (в валюте) – - Boosty (в рублях) – СОДЕРЖАНИЕ: 00:00 – Интро и позиция Татьяны по рискам AGI 09:14 – В чем заключается экзистенциальный риск от AGI 20:53 – Три правила робототехники Азимова 31:29 – Как распознать сильный AGI 45:05 – AGI сам научится человеческой морали? 54:06 – Прогресс, регулирование AI и open-source 1:00:40 – Насколько ChatGPT близок к AGI 1:10:31 – Не рано ли решать проблему AI alignment? 1:16:37 – Позиции сторон в споре о рисках AGI 1:21:03 – Почему технари не могут договориться по рискам AGI 1:29:44 – Что можно сделать для снижения рисков AGI 1:41:39 – Ресурсы Татьяны
Back to Top