Bladeren bron

Merge branch 'master' of u23melnikova/ISRPO into master

ypv 2 weken geleden
bovenliggende
commit
6fb405835e

+ 14 - 0
Лекции/ИИ_и_социальное_расслоение/Вопросы_Мельникова1.md

@@ -0,0 +1,14 @@
+1. Кто наиболее уязвим к автоматизации?  
+Работники с низкой квалификацией  
+
+2. Что такое цифровой разрыв?  
+Неравный доступ к технологиям  
+
+3. Роль данных в ИИ-экономике?  
+Стратегический ресурс конкурентного преимущества  
+
+4. Как снизить социальное расслоение?  
+Инвестиции в образование и переквалификацию  
+
+5. Главный структурный риск?  
+Концентрация капитала и данных  

+ 46 - 0
Лекции/ИИ_и_социальное_расслоение/Мельникова1.md

@@ -0,0 +1,46 @@
+# ИИ и социальное расслоение
+
+В 2024–2026 годах искусственный интеллект (ИИ) окончательно закрепился как системообразующая технология цифровой экономики. Масштабное внедрение генеративных моделей, автоматизированных аналитических систем и алгоритмов управления производством усилило дискуссию о влиянии ИИ на структуру общества. Одним из ключевых вопросов остается **влияние ИИ на социальное расслоение** — различия в доходах, доступе к ресурсам и возможностях профессиональной реализации.
+
+![](https://images.unsplash.com/photo-1485827404703-89b55fcc595e)
+
+## Автоматизация и рынок труда
+
+Современные ИИ-системы активно применяются в финансовом секторе, промышленности, логистике, здравоохранении и образовании. В 2025 году аналитические отчёты международных организаций указывают на ускорение автоматизации рутинных операций. **Наиболее уязвимыми оказываются низкоквалифицированные профессии**, связанные с повторяющимися задачами.
+
+В то же время спрос на специалистов в области анализа данных, разработки ИИ и цифрового управления растет. Это приводит к поляризации рынка труда: высококвалифицированные работники получают дополнительные преимущества, тогда как другие группы сталкиваются с риском снижения доходов или потери занятости.
+
+![](https://images.unsplash.com/photo-1519389950473-47ba0277781c)
+
+Генеративные модели также трансформируют креативные профессии. Хотя ИИ повышает производительность, он снижает барьеры входа и усиливает конкуренцию, что может оказывать давление на оплату труда в отдельных сегментах.
+
+## Цифровое неравенство
+
+Важным фактором расслоения остается **цифровой разрыв** — различия в доступе к технологиям, инфраструктуре и образованию. Использование ИИ требует стабильного интернет-доступа, вычислительных ресурсов и специализированных навыков.  
+
+В 2026 году сохраняется разрыв между развитыми регионами с высокой цифровой инфраструктурой и странами с ограниченным доступом к современным технологиям. Это усиливает глобальное экономическое неравенство и ограничивает участие отдельных государств в инновационной экономике.
+
+![](https://images.unsplash.com/photo-1498050108023-c5249f4df085)
+
+## Концентрация капитала и данных
+
+Ключевой особенностью рынка ИИ является высокая концентрация ресурсов. Крупные технологические корпорации обладают значительными массивами данных и вычислительными мощностями. **Концентрация данных как стратегического ресурса** формирует барьеры для новых участников рынка и усиливает монополизацию.
+
+Экономический эффект масштаба позволяет крупным компаниям быстрее внедрять инновации и снижать издержки, что дополнительно укрепляет их позиции. Малый и средний бизнес часто зависит от инфраструктуры крупных платформ, что усиливает структурное неравенство.
+
+| Фактор | Механизм влияния | Социальный результат |
+|--------|------------------|---------------------|
+| Автоматизация | Замещение рутинного труда | Рост уязвимости низкоквалифицированных групп |
+| Доступ к образованию | Различия в цифровых навыках | Усиление доходного разрыва |
+| Концентрация данных | Преимущество крупных компаний | Монополизация технологического рынка |
+| Государственная политика | Перераспределительные меры | Смягчение или усиление неравенства |
+
+## Государственная политика и адаптация
+
+В 2024–2026 годах государства активизировали программы переквалификации и цифрового обучения. **Инвестиции в образование рассматриваются как ключевой инструмент снижения социального расслоения**. Разрабатываются инициативы по поддержке стартапов и малого бизнеса в сфере ИИ.
+
+Одновременно усиливаются антимонопольные меры и обсуждаются механизмы налогообложения сверхприбылей технологических компаний. Цель подобных шагов — перераспределение выгод от автоматизации и предотвращение чрезмерной концентрации капитала.
+
+## Заключение
+
+ИИ оказывает комплексное влияние на социальную структуру. С одной стороны, технология повышает производительность и стимулирует инновации. С другой стороны, **без системной политики и расширения доступа к цифровым ресурсам ИИ способен усиливать социальное расслоение**. Будущее социальной динамики зависит от баланса между технологическим развитием, образовательной модернизацией и эффективным регулированием цифровой экономики.

+ 14 - 0
Лекции/Психологическая_зависимость_от_ИИ_советников/Вопросы_Мельникова2.md

@@ -0,0 +1,14 @@
+1. Что такое алгоритмический авторитет?  
+Повышенное доверие к рекомендациям ИИ  
+
+2. Главный когнитивный риск?  
+Снижение самостоятельного анализа решений  
+
+3. Эмоциональная зависимость проявляется как?  
+Ощущение поддержки от алгоритма  
+
+4. Может ли ИИ заменить терапию?  
+Нет, требуется профессиональное сопровождение  
+
+5. Основная профилактическая мера?  
+Развитие цифровой критической грамотности  

+ 49 - 0
Лекции/Психологическая_зависимость_от_ИИ_советников/Мельникова2.md

@@ -0,0 +1,49 @@
+# Психологическая зависимость от ИИ-советников
+
+В 2024–2026 годах наблюдается устойчивый рост использования ИИ-советников — текстовых чат-ботов, голосовых ассистентов и генеративных систем, применяемых для получения рекомендаций в профессиональной, образовательной и личной сферах. Расширение их когнитивных возможностей и доступности усилило научный интерес к феномену **психологической зависимости от ИИ-систем**. В современных исследованиях цифрового поведения данный феномен рассматривается как форма поведенческой и когнитивной адаптации к алгоритмической среде.
+
+![](https://images.unsplash.com/photo-1507146426996-ef05306b995a)
+
+## Когнитивные механизмы зависимости
+
+Формирование зависимости связано с особенностями восприятия алгоритмических рекомендаций. Пользователи склонны воспринимать ИИ как нейтральный и рациональный источник информации. **Эффект алгоритмического авторитета** усиливает доверие к советам, особенно в условиях неопределенности.  
+
+Кроме того, ИИ обеспечивает мгновенную обратную связь, что формирует устойчивую поведенческую модель обращения за советом. Постепенно пользователь может снижать уровень самостоятельного анализа, полагаясь на готовые решения.
+
+| Фактор | Психологический механизм | Риск |
+|--------|--------------------------|------|
+| Мгновенный ответ | Быстрое подкрепление поведения | Формирование привычки обращения |
+| Объективный стиль | Восприятие нейтральности | Ослабление критического мышления |
+| Персонализация | Индивидуализированные рекомендации | Эмоциональная привязанность |
+
+**Регулярное делегирование решений алгоритмам** может приводить к снижению уверенности в собственных когнитивных способностях. Это особенно заметно в ситуациях выбора, требующих моральной или социальной оценки.
+
+## Эмоциональный аспект взаимодействия
+
+ИИ-советники часто используют модель коммуникации, имитирующую эмпатию. Несмотря на отсутствие сознания, система способна воспроизводить поддерживающие формулировки. В результате формируется ощущение психологической поддержки.
+
+![](https://images.unsplash.com/photo-1518770660439-4636190af475)
+
+В 2025 году ряд исследований цифровой психологии зафиксировал рост случаев, когда пользователи предпочитают обсуждать личные переживания с ИИ, а не с реальными людьми. **Эмоциональная зависимость** может проявляться в ощущении комфорта и безопасности при взаимодействии с алгоритмом, что снижает мотивацию к живому общению.
+
+## Поведенческая модель использования
+
+Поведенческий уровень зависимости выражается в автоматизации обращения к ИИ даже по незначительным вопросам. Постепенно формируется устойчивая цифровая привычка.
+
+| Уровень зависимости | Проявление | Возможные последствия |
+|---------------------|------------|-----------------------|
+| Когнитивный | Проверка собственных решений | Снижение автономности |
+| Эмоциональный | Чувство поддержки от системы | Замещение межличностных контактов |
+| Поведенческий | Частое автоматическое использование | Формирование устойчивой зависимости |
+
+Отдельное внимание уделяется применению ИИ-советников в сфере ментального здоровья. Хотя такие инструменты расширяют доступ к информации, **они не заменяют профессиональную психологическую помощь**. Отсутствие клинической ответственности и индивидуальной диагностики ограничивает их возможности.
+
+## Регуляторные и этические аспекты
+
+В 2024–2026 годах усилилось внимание к системам, способным влиять на поведенческие модели пользователя. Европейские регуляторные подходы предусматривают требования к прозрачности алгоритмов и информированию о природе рекомендаций.  
+
+Этическая проблема заключается в том, что дизайн интерфейсов может стимулировать удержание внимания. **Механизмы вовлечения способны непреднамеренно усиливать зависимое поведение**, если не внедрены принципы ответственного проектирования.
+
+## Заключение
+
+Психологическая зависимость от ИИ-советников является новым феноменом цифровой эпохи, сочетающим когнитивные, эмоциональные и поведенческие аспекты. Современные исследования подчеркивают необходимость сохранения автономии личности при активном использовании алгоритмических инструментов. **Развитие критического мышления и цифровой грамотности** рассматривается как ключевой фактор профилактики. В условиях дальнейшего распространения ИИ особое значение приобретает баланс между технологической поддержкой и самостоятельностью человека.

+ 14 - 0
Лекции/Этика_забывания_в_эпоху_ИИ/Вопросы_Мельникова3.md

@@ -0,0 +1,14 @@
+1. Что означает право на забвение?  
+Право требовать удаление личных данных  
+
+2. Главная техническая сложность?  
+Распределённое хранение в параметрах модели  
+
+3. Что такое machine unlearning?  
+Удаление влияния данных из модели  
+
+4. Роль AI Act?  
+Усиление контроля ИИ-систем высокого риска  
+
+5. Главный этический конфликт?  
+Баланс приватности и общественного интереса  

+ 47 - 0
Лекции/Этика_забывания_в_эпоху_ИИ/Мельникова3.md

@@ -0,0 +1,47 @@
+# Этика “забывания” в эпоху ИИ
+
+В 2024–2026 годах активное развитие генеративных моделей и систем машинного обучения усилило дискуссию о границах хранения и удаления цифровой информации. Современные ИИ-системы обучаются на огромных массивах текстовых, визуальных и поведенческих данных, что делает проблему контроля над персональной информацией особенно актуальной. В центре обсуждения находится **“право на забвение”** — возможность человека требовать удаления своих данных из цифровых систем.
+
+![](https://images.unsplash.com/photo-1677442136019-21780ecad995)
+
+## Правовое регулирование и современные нормы
+
+Право на удаление персональных данных закреплено в ряде международных нормативных актов. В Европейском союзе продолжает действовать **Общий регламент по защите данных (GDPR)**, предусматривающий механизм подачи запроса на удаление информации при отсутствии законных оснований для её обработки. Дополнительно, с 2024 года вступил в силу **AI Act ЕС**, который усилил требования к прозрачности и управлению рисками в системах высокого уровня воздействия.
+
+Однако нормативное закрепление права не означает его автоматической технической реализуемости. Если персональные данные использовались для обучения модели, они не хранятся в явном виде, а распределяются в параметрах нейронной сети. **Удаление одного фрагмента данных не равнозначно удалению записи из базы**, поскольку влияние информации интегрировано статистически.
+
+## Техническая проблема “забывания”
+
+В 2024–2026 годах активно развивается направление **machine unlearning** — алгоритмическое устранение влияния конкретных данных из уже обученной модели. Несмотря на прогресс, универсального и полностью проверяемого решения пока не существует.
+
+![](https://images.unsplash.com/photo-1620712943543-bcc4688e7485)
+
+Основные подходы представлены в таблице:
+
+| Метод | Суть подхода | Основные ограничения |
+|-------|--------------|---------------------|
+| Полное переобучение | Обучение модели заново без удалённых данных | Высокие вычислительные затраты |
+| Частичное unlearning | Локальная корректировка параметров | Неполная гарантия устранения влияния |
+| Дифференциальная приватность | Ограничение запоминания на этапе обучения | Возможное снижение точности |
+
+**Дифференциальная приватность** рассматривается как профилактическая мера, минимизирующая вероятность запоминания персональных сведений. Однако она эффективна преимущественно до завершения обучения, а не после.
+
+## Этические противоречия
+
+Этика “забывания” затрагивает фундаментальные ценности цифрового общества.  
+
+Во-первых, существует конфликт между приватностью и общественным интересом. **Удаление информации может повлиять на историческую достоверность** и общественную память, особенно если речь идет о публичных событиях или должностных лицах.  
+
+Во-вторых, возникает проблема автономии личности. Человек стремится контролировать свою цифровую репутацию, однако алгоритмическая обработка данных часто выходит за пределы его непосредственного контроля.  
+
+В-третьих, обсуждается ответственность разработчиков ИИ. Отсутствие прозрачных процедур проверки удаления данных создаёт риск формального исполнения требований без фактического устранения влияния информации.
+
+## Практика 2025–2026 годов
+
+К 2026 году крупные технологические компании внедряют системы документирования источников данных и процедуры внутреннего аудита. **Принципы data governance становятся обязательным элементом разработки ИИ-систем**. Усиливается предварительная фильтрация персональных данных перед обучением, а также вводятся механизмы ограничения генерации чувствительной информации.
+
+Тем не менее, сохраняется проблема доказуемости. Проверить, действительно ли модель “забыла” конкретные данные, крайне сложно без полного повторного обучения. Это подчеркивает необходимость создания международных стандартов и независимых механизмов контроля.
+
+## Заключение
+
+Этика “забывания” в эпоху ИИ представляет собой комплексную междисциплинарную проблему, объединяющую право, технологии и философию. Современные регуляторные инициативы 2024–2026 годов направлены на усиление прозрачности и защиту прав личности, однако технические ограничения сохраняются. **Машинное забывание остается активно развивающейся исследовательской областью**, требующей баланса между инновациями и соблюдением фундаментальных прав человека. В перспективе ключевым направлением станет формирование стандартов проверяемого удаления данных и развитие ответственного дизайна ИИ.