Введение в искусственный интеллект и машинное обучение
Название спецкурса на английском языке
Introduction to artificial intelligence and machine learning
Пререквизиты
Отсутствуют
Целевая аудитория
3-6 курс, магистранты
Подразделение
[Кафедра МаТИС]
Семестр
Полгода (весна)
Тип курса
Спецкурс по выбору студента
Учебный год
2024/25
Список тем
Введение в математику и философию ИИ. От естественного интеллекта к искусственному
Представление знаний и автоматизация рассуждений
Введение в машинное обучение. Процесс принятия решения в терминах обучаемой модели (упрощенно). Нечеткая функция принадлежности и представление естественных признаков в виде нечеткого множества.
Базовое представление о проблеме переобучения моделей. Дилемма смещения-разброса как пояснение в терминах аппроксимации и статистики (упрощенно).
Основы Python. Базовые аспекты и основные объекты
Классическое машинное обучение. Краткий обзор базовых методов машинного обучения (с упрощенным пояснением). Примеры задач: как простейшие алгоритмы решают сложные задачи.
Логическое представление естественно-биологической модели связи из нескольких нейронов. Многослойная нейронная сеть прямого распространения. Проблемы переобучения нейронной сети.
Автоассоциативные нейронные сети. Оценка важности признаков и главная нелинейная компонента множества. Смещение рода ошибки (упрощенно: больной-здоровый, здоровый-больной). Пример: рекомендательная система для врачей - оценка вероятности неблагоприятного клинического исхода у пациента.
Рекуррентные нейронные сети. Задачи прогнозирования и обработки временных рядов, основы обработки естественного языка. Примеры: распознавание речи, оценка тональности текста.
Глубокие сверточные нейронные сети. Основы компьютерного зрения. Примеры карт признаков. Аугментация данных окклюзия признаков. Технология transfer-learning и дообучение нейронных сетей. Примеры кода: как обучить модель в 15 строк кода.
Представление знаний и автоматизация рассуждений
Введение в машинное обучение. Процесс принятия решения в терминах обучаемой модели (упрощенно). Нечеткая функция принадлежности и представление естественных признаков в виде нечеткого множества.
Базовое представление о проблеме переобучения моделей. Дилемма смещения-разброса как пояснение в терминах аппроксимации и статистики (упрощенно).
Основы Python. Базовые аспекты и основные объекты
Классическое машинное обучение. Краткий обзор базовых методов машинного обучения (с упрощенным пояснением). Примеры задач: как простейшие алгоритмы решают сложные задачи.
Логическое представление естественно-биологической модели связи из нескольких нейронов. Многослойная нейронная сеть прямого распространения. Проблемы переобучения нейронной сети.
Автоассоциативные нейронные сети. Оценка важности признаков и главная нелинейная компонента множества. Смещение рода ошибки (упрощенно: больной-здоровый, здоровый-больной). Пример: рекомендательная система для врачей - оценка вероятности неблагоприятного клинического исхода у пациента.
Рекуррентные нейронные сети. Задачи прогнозирования и обработки временных рядов, основы обработки естественного языка. Примеры: распознавание речи, оценка тональности текста.
Глубокие сверточные нейронные сети. Основы компьютерного зрения. Примеры карт признаков. Аугментация данных окклюзия признаков. Технология transfer-learning и дообучение нейронных сетей. Примеры кода: как обучить модель в 15 строк кода.
Список источников
Брик Х., Феверолф М., Ричардс Д., Машинное обучение, Библиотека программиста: Питер, 2017. – 336 с.
Заде Л., Понятие лингвистической переменной и его применение к принятию приближенных решений: Мир, 1976. — 166 с.
Мак-Каллок, У. С., Питтс, В. Логическое исчисление идей, относящихся к нервной активности = A logical calculus of the ideas immanent in nervous activity: Автоматы, 1956. - 363 – 384 с.
Минский М., Пейперт С., Персептроны = Perceptrons: Мир, 1971. — 261 с.
Розенблатт Ф., Принципы нейродинамики: Перцептроны и теория механизмов мозга = Principles of Neurodynamic: Perceptrons and the Theory of Brain Mechanisms: Мир, 1965. — 480 с.
Николенко С., Архангельская Е., Кадурин А, Глубокое обучение, покружение в мир нейронных сетей, Библиотека программиста: Питер, 2020. – 480 с.
Бенджио И., Курвилль А., Гудфеллоу Я., Глубокое обучение: ДМК-Пресс, 2018. – 652 с.
Liou C., Cheng C., Liou J.-W., Liou D., Autoencoder for Words: Neurocomputing, 2014. - v.139, 84-96 p.
Lesk, A. M.. Introduction to bioinformatics, 2012.
Murphy, K. P. Machine Learning: A Probabilistic Perspective. 2012. Cambridge, Mass: The MIT Press
Заде Л., Понятие лингвистической переменной и его применение к принятию приближенных решений: Мир, 1976. — 166 с.
Мак-Каллок, У. С., Питтс, В. Логическое исчисление идей, относящихся к нервной активности = A logical calculus of the ideas immanent in nervous activity: Автоматы, 1956. - 363 – 384 с.
Минский М., Пейперт С., Персептроны = Perceptrons: Мир, 1971. — 261 с.
Розенблатт Ф., Принципы нейродинамики: Перцептроны и теория механизмов мозга = Principles of Neurodynamic: Perceptrons and the Theory of Brain Mechanisms: Мир, 1965. — 480 с.
Николенко С., Архангельская Е., Кадурин А, Глубокое обучение, покружение в мир нейронных сетей, Библиотека программиста: Питер, 2020. – 480 с.
Бенджио И., Курвилль А., Гудфеллоу Я., Глубокое обучение: ДМК-Пресс, 2018. – 652 с.
Liou C., Cheng C., Liou J.-W., Liou D., Autoencoder for Words: Neurocomputing, 2014. - v.139, 84-96 p.
Lesk, A. M.. Introduction to bioinformatics, 2012.
Murphy, K. P. Machine Learning: A Probabilistic Perspective. 2012. Cambridge, Mass: The MIT Press
Дополнительная информация
Курс является обязательным для студентов магистратуры философского факультета и факультета психологии. Ссылка на Telegram канал https://t.me/+Y6cohsegopE2NzA6
Первое занятие - 10.02.2025
В ауд г309 Шуваловского корпуса
День недели
понедельник
Время
18:30-20:05
Аудитория
Ещё не назначена
Дата первого занятия
Аудитория первого занятия
Ещё не назначена