Как написать ВКР на тему: «Приложение для управления задачами и напоминаниями на основе ИИ»
Полная структура ВКР: от введения до приложений
Нужна работа по этой теме?
Получите консультацию за 10 минут! Мы знаем все стандарты МИРЭА.
Telegram: @Diplomit
Телефон/WhatsApp: +7 (987) 915-99-32
Email: admin@diplom-it.ru
С чего начать написание ВКР по теме «Приложение для управления задачами и напоминаниями на основе ИИ»?
Написание выпускной квалификационной работы по направлению 09.03.02 «Информационные системы и технологии» в МИРЭА на тему ИИ-приложения для управления задачами требует особого внимания к этическим аспектам и защите персональных данных. Студенты часто ошибочно фокусируются только на алгоритмах ИИ, игнорируя правовые ограничения — на практике требования методических указаний МИРЭА гораздо строже: необходимо провести анализ существующих решений (Todoist, Microsoft To Do), разработать архитектуру с многоуровневой системой защиты данных, реализовать ИИ-модуль для приоритизации задач и генерации напоминаний с прозрачностью алгоритмов, обеспечить соответствие требованиям ФЗ-152 и этическим принципам ИИ ЮНЕСКО, провести пользовательское тестирование и обосновать экономическую эффективность.
По нашему опыту, ключевая сложность этой темы заключается в балансе между инновационностью ИИ-функций и этической ответственностью. С одной стороны, работа должна демонстрировать владение современными методами ИИ: обработкой естественного языка (NLP) для анализа задач, машинным обучением для адаптивной приоритизации, генерацией персонализированных напоминаний. С другой — строго соблюдать этические принципы: прозрачность алгоритмов, отсутствие манипуляций, защиту персональных данных, запрет на обработку чувствительных данных (здоровье, религия) без явного согласия. В этой статье мы разберём стандартную структуру ВКР для специальности 09.03.02, дадим конкретные примеры реализации ИИ-модуля с этическими ограничениями и покажем типичные ошибки, которые приводят к замечаниям научного руководителя. Честно предупреждаем: качественная проработка всех разделов займёт 175–205 часов, включая анализ этических принципов ИИ, проектирование архитектуры с защитой данных, разработку ИИ-модуля, пользовательское тестирование и экономические расчёты.
Как правильно согласовать тему и избежать отказов
На этапе утверждения темы в МИРЭА часто возникают замечания по недостаточной проработке этических аспектов. Формулировка без указания мер защиты персональных данных и ограничений на обработку чувствительной информации будет отклонена — требуется чёткое определение границ применения ИИ и механизмов обеспечения прозрачности. Для успешного согласования подготовьте краткую аннотацию (150–200 слов), где укажите:
- Конкретную целевую аудиторию: студенты, офисные работники, фрилансеры (без указания уязвимых групп без дополнительной защиты)
- Проблему: например, «низкая эффективность существующих приложений из-за отсутствия персонализации, ручной приоритизации задач, отсутствия адаптивных напоминаний с учётом привычек пользователя»
- Предполагаемое решение: «разработка мобильного приложения с ИИ-модулем для автоматической приоритизации задач на основе анализа естественного языка, генерации персонализированных напоминаний с прозрачными алгоритмами и многоуровневой системой защиты персональных данных»
- Ожидаемый результат: «повышение продуктивности пользователей на 35% по шкале Самопроверки продуктивности (PSS), 100% соответствие этическим принципам ИИ ЮНЕСКО и требованиям ФЗ-152»
Типичная ошибка студентов МИРЭА — отсутствие указания ограничений на обработку чувствительных данных и механизмов прозрачности алгоритмов ИИ. Научный руководитель и этический комитет вуза обязательно запросят уточнение: как обеспечивается прозрачность решений ИИ, какие данные не обрабатываются без согласия, как предотвращается манипуляция поведением пользователя. Если доступ к реальным пользователям для тестирования ограничен, заранее подготовьте аргументацию использования синтетических данных с обоснованием их репрезентативности.
Пример диалога с руководителем: «Я предлагаю разработать мобильное приложение «TaskMind AI» для повышения личной продуктивности студентов и офисных работников с применением ИИ для автоматической приоритизации задач и генерации персонализированных напоминаний. В настоящее время существующие решения (Todoist, Microsoft To Do) не учитывают индивидуальные привычки пользователя и требуют ручной настройки приоритетов, что снижает эффективность на 40% по данным исследования «Цифровая продуктивность 2025». Цель работы — создать приложение на базе Flutter с ИИ-модулем на TensorFlow Lite, обеспечивающим: 1) анализ задач через NLP для автоматического определения срочности и важности, 2) генерацию напоминаний с учётом временных паттернов пользователя, 3) прозрачность алгоритмов через объяснимый ИИ (XAI), 4) многоуровневую защиту персональных данных в соответствии с ФЗ-152 и этическими принципами ИИ ЮНЕСКО (резолюция 41C/46), 5) запрет на обработку чувствительных данных (здоровье, религия, политические взгляды) без явного согласия пользователя».
Стандартная структура ВКР в МИРЭА по специальности 09.03.02 «Информационные системы и технологии»: пошаговый разбор
Введение
Цель раздела: Обосновать актуальность разработки приложения с этически корректной формулировкой, сформулировать цель и задачи исследования.
Пошаговая инструкция:
- Начните с анализа проблем личной продуктивности: по данным исследования «Цифровая продуктивность 2025», 68% пользователей теряют до 2 часов ежедневно из-за неэффективного управления задачами.
- Приведите статистику ограничений существующих решений: 74% приложений не используют ИИ для персонализации, 82% не обеспечивают прозрачность алгоритмов принятия решений.
- Сформулируйте актуальность через призму этичного применения ИИ в повседневной жизни с соблюдением прав пользователей и требований к объяснимому ИИ.
- Определите цель: например, «Разработка мобильного приложения для управления задачами и напоминаниями на основе ИИ с обеспечением прозрачности алгоритмов и защиты персональных данных в соответствии с этическими принципами ИИ ЮНЕСКО и требованиями Федерального закона №152-ФЗ».
- Разбейте цель на 4–5 конкретных задач (анализ этических принципов ИИ, проектирование архитектуры, разработка ИИ-модуля, пользовательское тестирование, расчёт эффективности).
Конкретный пример для темы:
Объект исследования: процесс управления личными задачами и напоминаниями у студентов и офисных работников (выборка 200 человек).
Предмет исследования: мобильное приложение «TaskMind AI» с ИИ-модулем для автоматической приоритизации задач и генерации персонализированных напоминаний при соблюдении этических принципов ИИ.
Методы исследования: анализ этических документов (ЮНЕСКО, NIST), обработка естественного языка (NLP), машинное обучение (TensorFlow Lite), кроссплатформенная разработка (Flutter), пользовательское тестирование (опросы, A/B-тесты), экономический анализ.
Типичные сложности и временные затраты:
- Ошибка 1: Расплывчатая формулировка актуальности без привязки к конкретным этическим принципам ИИ и требованиям ФЗ-152.
- Ошибка 2: Отсутствие указания ограничений на обработку чувствительных данных и механизмов прозрачности алгоритмов ИИ.
- Ориентировочное время: 22–28 часов на проработку и согласование с руководителем и этическим комитетом вуза.
Визуализация: Введение не требует сложных диаграмм, но рекомендуется добавить таблицу с перечнем задач и соответствующих методов исследования. Подробнее о требованиях ГОСТ 7.32 к оформлению отчётов читайте в нашей статье «Оформление ВКР по ГОСТ».
Глава 1. Теоретические основы этичного применения ИИ в приложениях личной продуктивности
1.1. Этические принципы искусственного интеллекта и правовые ограничения
Цель раздела: Показать глубокое понимание этических рамок и обосновать необходимость технических мер защиты.
Пошаговая инструкция:
- Проанализируйте резолюцию ЮНЕСКО 41C/46 «Рекомендация по этике искусственного интеллекта» (2021, ратифицирована РФ в 2022 г.) — принципы прозрачности, справедливости, ответственности.
- Изучите рекомендации NIST AI Risk Management Framework (NIST AI 100-1, 2023) — подходы к управлению рисками ИИ, объяснимый ИИ (XAI).
- Рассмотрите Федеральный закон №152-ФЗ «О персональных данных» — требования к обработке, согласию, защите данных.
- Сформулируйте требования к приложению: запрет на обработку чувствительных данных без согласия, прозрачность алгоритмов, возможность отключения ИИ-функций, аудит операций.
Конкретный пример для темы:
| Этический принцип / Требование | Документ | Реализация в приложении |
|---|---|---|
| Прозрачность алгоритмов ИИ | ЮНЕСКО 41C/46, п. 18 | Модуль объяснимого ИИ (XAI): при нажатии на приоритет задачи отображается причина («Срочно: дедлайн через 2 часа», «Важно: связано с проектом X») |
| Запрет на обработку чувствительных данных без согласия | ФЗ-152, ст. 10.1 | Блокировка анализа текста задач на предмет здоровья, религии, политики; явное согласие для обработки таких данных с отдельным переключателем |
| Право на отказ от ИИ | NIST AI RMF, стр. 24 | Возможность полного отключения ИИ-функций в настройках с переходом на ручной режим управления задачами |
| Аудит операций с персональными данными | ФЗ-152, ст. 18.1, п. 4 | Журнал всех операций с данными пользователя в разделе «Конфиденциальность» с возможностью экспорта и удаления |
| Отсутствие манипуляции поведением | ЮНЕСКО 41C/46, п. 32 | Запрет на использование дарк-паттернов; все напоминания помечаются как «Сгенерировано ИИ»; отсутствие пуш-уведомлений в ночное время (23:00–7:00) без явного разрешения |
1.2. Анализ существующих решений и выявление этических рисков
Цель раздела: Обосновать необходимость разработки нового приложения через критический анализ аналогов с акцентом на этические недостатки.
Пошаговая инструкция:
- Опишите коммерческие решения: Todoist (отсутствие прозрачности алгоритмов приоритизации), Microsoft To Do (ограниченная персонализация), Google Tasks (передача данных в облако без явного согласия).
- Проанализируйте открытые решения: OpenTasks (отсутствие ИИ-функций), Tasks.org (базовый функционал без адаптации).
- Выявите этические риски: скрытая передача данных третьим лицам, отсутствие объяснимости решений ИИ, манипуляция поведением через уведомления, обработка чувствительных данных без согласия.
- Сформулируйте преимущества предлагаемого решения: прозрачность алгоритмов, локальная обработка данных, запрет на манипуляции, явное согласие на обработку чувствительных данных.
На что обращают внимание на защите в МИРЭА:
Члены ГАК и представители этического комитета вуза обязательно спросят: «Как ваше приложение обеспечивает прозрачность алгоритмов ИИ для пользователя?» или «Как предотвращается обработка чувствительных данных (здоровье, религия) без согласия?». Подготовьте аргументированные ответы с привязкой к разделам главы 1 и архитектурным решениям в главе 2, а также демонстрацией интерфейса модуля объяснимого ИИ и настроек приватности.
1.3. Методы искусственного интеллекта для управления задачами
Цель раздела: Обосновать выбор методов ИИ с учётом этических ограничений и технической реализуемости.
Пошаговая инструкция:
- Опишите методы обработки естественного языка (NLP): извлечение дедлайнов, определение срочности через ключевые слова, классификация задач по категориям.
- Проанализируйте подходы к приоритизации: матрица Эйзенхауэра с ИИ-коррекцией, адаптивные алгоритмы на основе истории выполнения задач.
- Рассмотрите методы генерации напоминаний: анализ временных паттернов пользователя, прогнозирование оптимального времени для напоминаний.
- Обоснуйте выбор лёгких моделей для мобильных устройств (TensorFlow Lite, ONNX Runtime) с возможностью локальной обработки без передачи данных в облако.
Глава 2. Проектная часть: разработка мобильного приложения «TaskMind AI»
2.1. Проектирование архитектуры приложения с этическими ограничениями
Цель раздела: Разработать архитектуру с многоуровневой системой защиты данных и прозрачностью алгоритмов ИИ.
Пошаговая инструкция:
- Выберите архитектурный стиль: клиент-сервер с возможностью офлайн-режима, приоритет локальной обработки данных.
- Определите стек технологий: Flutter (Dart) для мобильного приложения, TensorFlow Lite для ИИ-модуля, Hive/SQLite для локального хранения данных.
- Спроектируйте систему приватности: модуль управления согласиями, переключатель для отключения ИИ, настройки чувствительных данных.
- Разработайте схему базы данных с полями для хранения согласий, настроек приватности и журнала операций.
Типичные сложности и временные затраты:
- Ошибка 1: Отсутствие полей для хранения согласий пользователя и настроек приватности в схеме базы данных.
- Ошибка 2: Недостаточная проработка механизма локальной обработки данных без передачи в облако.
- Ориентировочное время: 45–55 часов на проектирование архитектуры и базы данных с учётом этических требований.
? Пример схемы базы данных с полями для защиты приватности (нажмите, чтобы развернуть)
# Схема базы данных мобильного приложения «TaskMind AI»
# Специальные поля для соблюдения этических принципов ИИ и ФЗ-152
# Таблица пользователей
CREATE TABLE users (
id INTEGER PRIMARY KEY AUTOINCREMENT,
created_at TIMESTAMP DEFAULT CURRENT_TIMESTAMP,
# Учётные данные (локальное хранение без передачи в облако)
email_encrypted TEXT, # Зашифрованный email (опционально для синхронизации)
password_hash TEXT NOT NULL, # Хэш пароля (bcrypt)
# Настройки приватности и согласия
ai_enabled BOOLEAN DEFAULT TRUE, # Включены ли ИИ-функции
sensitive_data_consent BOOLEAN DEFAULT FALSE, # Согласие на обработку чувствительных данных
sensitive_data_consent_date TIMESTAMP, # Дата получения согласия
marketing_consent BOOLEAN DEFAULT FALSE, # Согласие на маркетинговые уведомления
data_sharing_consent BOOLEAN DEFAULT FALSE, # Согласие на анонимную аналитику
# Этические настройки ИИ
dark_patterns_blocked BOOLEAN DEFAULT TRUE, # Блокировка дарк-паттернов
night_notifications_blocked BOOLEAN DEFAULT TRUE, # Блокировка уведомлений 23:00-7:00
xai_enabled BOOLEAN DEFAULT TRUE, # Включено ли объяснимое ИИ
# Статусы
is_active BOOLEAN DEFAULT TRUE,
last_login TIMESTAMP
);
# Таблица задач
CREATE TABLE tasks (
id INTEGER PRIMARY KEY AUTOINCREMENT,
user_id INTEGER NOT NULL REFERENCES users(id) ON DELETE CASCADE,
created_at TIMESTAMP DEFAULT CURRENT_TIMESTAMP,
updated_at TIMESTAMP DEFAULT CURRENT_TIMESTAMP,
# Основные данные задачи
title TEXT NOT NULL,
description TEXT,
due_date TIMESTAMP,
category TEXT, # 'work', 'personal', 'study', 'health' (но не анализируется без согласия)
# Приоритет (устанавливается вручную или ИИ с объяснением)
priority INTEGER CHECK (priority IN (1, 2, 3, 4)), -- 1=срочно+важно, 4=не срочно+не важно
priority_source TEXT CHECK (priority_source IN ('manual', 'ai')), -- Источник приоритета
priority_explanation TEXT, -- Объяснение ИИ (для XAI): "Дедлайн через 2 часа", "Связано с проектом X"
# Статусы
status TEXT DEFAULT 'pending' CHECK (status IN ('pending', 'completed', 'cancelled')),
completed_at TIMESTAMP,
# Флаги для защиты приватности
contains_sensitive_data BOOLEAN DEFAULT FALSE, -- Помечено ли пользователем как чувствительное
ai_analysis_blocked BOOLEAN DEFAULT FALSE, -- Запрет анализа ИИ для этой задачи
# Метаданные для ИИ (локальное использование)
estimated_duration_minutes INTEGER, -- Оценка длительности (генерируется ИИ)
suggested_time TIMESTAMP, -- Рекомендуемое время выполнения (генерируется ИИ)
confidence_score REAL CHECK (confidence_score BETWEEN 0 AND 1) -- Уверенность ИИ в оценке
);
# Таблица напоминаний
CREATE TABLE reminders (
id INTEGER PRIMARY KEY AUTOINCREMENT,
task_id INTEGER NOT NULL REFERENCES tasks(id) ON DELETE CASCADE,
created_at TIMESTAMP DEFAULT CURRENT_TIMESTAMP,
# Данные напоминания
reminder_time TIMESTAMP NOT NULL,
reminder_type TEXT CHECK (reminder_type IN ('push', 'email', 'sms')),
is_sent BOOLEAN DEFAULT FALSE,
# Этические метки
is_ai_generated BOOLEAN DEFAULT TRUE, -- Сгенерировано ли ИИ
ai_generation_reason TEXT, -- Причина генерации: "Пользователь обычно работает в это время"
blocked_by_night_mode BOOLEAN DEFAULT FALSE, -- Заблокировано ли из-за ночного режима
# Статусы
sent_at TIMESTAMP,
dismissed_at TIMESTAMP
);
# Таблица согласий пользователя (аудит)
CREATE TABLE user_consent_log (
id INTEGER PRIMARY KEY AUTOINCREMENT,
user_id INTEGER NOT NULL REFERENCES users(id) ON DELETE CASCADE,
event_time TIMESTAMP DEFAULT CURRENT_TIMESTAMP,
# Тип согласия/отзыва
consent_type TEXT NOT NULL CHECK (
consent_type IN (
'sensitive_data_granted',
'sensitive_data_revoked',
'marketing_granted',
'marketing_revoked',
'data_sharing_granted',
'data_sharing_revoked',
'ai_enabled',
'ai_disabled'
)
),
# Детали
ip_address TEXT,
user_agent TEXT,
notes TEXT -- Дополнительные комментарии
);
# Таблица журнала операций (аудит для ФЗ-152)
CREATE TABLE audit_log (
id INTEGER PRIMARY KEY AUTOINCREMENT,
user_id INTEGER NOT NULL REFERENCES users(id) ON DELETE CASCADE,
event_time TIMESTAMP DEFAULT CURRENT_TIMESTAMP,
# Данные операции
operation_type TEXT NOT NULL CHECK (
operation_type IN ('create', 'read', 'update', 'delete', 'ai_analysis', 'consent_change')
),
table_name TEXT NOT NULL,
record_id INTEGER,
# Этические метки
involved_ai BOOLEAN DEFAULT FALSE,
sensitive_data_accessed BOOLEAN DEFAULT FALSE,
# Детали (в формате JSON)
old_values TEXT, -- JSON строка
new_values TEXT, -- JSON строка
ip_address TEXT,
description TEXT
);
# Таблица аналитики использования (только анонимная, с согласия)
CREATE TABLE anonymous_usage_stats (
id INTEGER PRIMARY KEY AUTOINCREMENT,
event_time TIMESTAMP DEFAULT CURRENT_TIMESTAMP,
# Анонимные данные (без привязки к пользователю)
app_version TEXT NOT NULL,
os_type TEXT NOT NULL, # 'android', 'ios'
feature_used TEXT NOT NULL, # 'task_creation', 'ai_prioritization', 'reminder_generation'
success BOOLEAN NOT NULL,
# Временные метки (без точного времени пользователя)
hour_of_day INTEGER CHECK (hour_of_day BETWEEN 0 AND 23), -- Только час, без даты и минут
day_of_week INTEGER CHECK (day_of_week BETWEEN 1 AND 7)
);
# Индексы для ускорения запросов
CREATE INDEX idx_tasks_user_status ON tasks(user_id, status);
CREATE INDEX idx_tasks_due_date ON tasks(due_date);
CREATE INDEX idx_reminders_time ON reminders(reminder_time);
CREATE INDEX idx_audit_user_time ON audit_log(user_id, event_time);
CREATE INDEX idx_consent_user_time ON user_consent_log(user_id, event_time);
2.2. Разработка ИИ-модуля с прозрачностью алгоритмов (объяснимый ИИ)
Цель раздела: Реализовать ИИ-модуль для приоритизации задач и генерации напоминаний с механизмом объяснимого ИИ (XAI).
Пошаговая инструкция:
- Разработайте модуль анализа текста задачи: извлечение дедлайнов, определение срочности через ключевые слова, классификация по категориям.
- Реализуйте алгоритм приоритизации: комбинация матрицы Эйзенхауэра и адаптивного обучения на основе истории выполнения задач пользователя.
- Добавьте механизм объяснимого ИИ (XAI): генерация текстовых объяснений для каждого решения ИИ («Срочно: дедлайн через 2 часа»).
- Реализуйте модуль генерации напоминаний: анализ временных паттернов пользователя, прогнозирование оптимального времени, блокировка ночных уведомлений.
? Пример ИИ-модуля приоритизации с объяснимым ИИ на Python/TensorFlow Lite (нажмите, чтобы развернуть)
# ai_prioritization_module.py - ИИ-модуль приоритизации задач с объяснимым ИИ (XAI)
# Соответствует этическим принципам ИИ ЮНЕСКО и требованиям прозрачности
import re
from datetime import datetime, timedelta
from typing import Dict, List, Tuple, Optional
import json
from .privacy_service import PrivacyService # Сервис проверки приватности
class TaskPrioritizer:
"""
Модуль приоритизации задач с объяснимым ИИ (XAI).
Обеспечивает прозрачность алгоритмов в соответствии с принципами ЮНЕСКО и NIST AI RMF.
ВАЖНО:
- Все решения ИИ сопровождаются текстовыми объяснениями
- Анализ текста задачи блокируется для чувствительных категорий без согласия
- Возможность полного отключения ИИ-функций через настройки
- Локальная обработка данных без передачи в облако
"""
# Ключевые слова для определения срочности и важности
URGENT_KEYWORDS = [
'срочно', 'немедленно', 'до конца дня', 'сегодня', 'завтра',
'дедлайн', 'deadline', 'urgent', 'asap', 'крайний срок'
]
IMPORTANT_KEYWORDS = [
'важно', 'приоритет', 'проект', 'клиент', 'начальник',
'презентация', 'отчёт', 'встреча', 'совещание', 'доклад'
]
# Чувствительные категории (требуют согласия для анализа)
SENSITIVE_CATEGORIES = ['health', 'religion', 'politics', 'sexuality']
def __init__(self, privacy_service: PrivacyService):
self.privacy_service = privacy_service
self.explanation_templates = {
'urgent_deadline': 'Срочно: дедлайн {}',
'urgent_keyword': 'Срочно: обнаружено ключевое слово "{}"',
'important_project': 'Важно: связано с проектом "{}"',
'important_keyword': 'Важно: обнаружено ключевое слово "{}"',
'habit_pattern': 'Рекомендовано: вы обычно выполняете такие задачи в это время',
'low_priority': 'Низкий приоритет: нет срочных или важных маркеров'
}
def prioritize_task(self, task: Dict, user_profile: Dict) -> Tuple[int, str, bool]:
"""
Определение приоритета задачи с генерацией объяснения.
Аргументы:
task: Словарь с данными задачи (title, description, due_date, category)
user_profile: Профиль пользователя с настройками приватности и историей
Возвращает:
(приоритет: 1-4, объяснение: str, использован_и: bool)
Приоритет: 1=срочно+важно, 2=важно, 3=срочно, 4=низкий приоритет
"""
# Проверка: отключены ли ИИ-функции в настройках пользователя
if not user_profile.get('ai_enabled', True):
return task.get('manual_priority', 4), 'Приоритет установлен вручную', False
# Проверка: заблокирован ли анализ ИИ для этой задачи
if task.get('ai_analysis_blocked', False):
return task.get('manual_priority', 4), 'Анализ ИИ отключён для этой задачи', False
# Проверка: относится ли задача к чувствительной категории без согласия
if self._is_sensitive_without_consent(task, user_profile):
return 4, 'Анализ ИИ недоступен для чувствительных данных без согласия', False
explanations = []
urgency_score = 0
importance_score = 0
# 1. Анализ дедлайна (самый важный фактор)
if task.get('due_date'):
due_date = datetime.fromisoformat(task['due_date'])
time_until_due = due_date - datetime.now()
if time_until_due.total_seconds() < 0:
# Просроченная задача
urgency_score += 100
explanations.append(self.explanation_templates['urgent_deadline'].format('просрочен'))
elif time_until_due.total_seconds() < 7200: # Менее 2 часов
urgency_score += 90
explanations.append(self.explanation_templates['urgent_deadline'].format('через 2 часа'))
elif time_until_due.total_seconds() < 14400: # Менее 4 часов
urgency_score += 70
explanations.append(self.explanation_templates['urgent_deadline'].format('через 4 часа'))
elif time_until_due.total_seconds() < 86400: # Менее 24 часов
urgency_score += 50
explanations.append(self.explanation_templates['urgent_deadline'].format('завтра'))
# 2. Анализ текста задачи на ключевые слова
task_text = f"{task.get('title', '')} {task.get('description', '')}".lower()
# Поиск срочных ключевых слов
for keyword in self.URGENT_KEYWORDS:
if keyword in task_text:
urgency_score += 30
explanations.append(self.explanation_templates['urgent_keyword'].format(keyword))
break # Достаточно одного совпадения
# Поиск важных ключевых слов
for keyword in self.IMPORTANT_KEYWORDS:
if keyword in task_text:
importance_score += 30
explanations.append(self.explanation_templates['important_keyword'].format(keyword))
break # Достаточно одного совпадения
# 3. Анализ категории задачи
if task.get('category') == 'work' and 'project' in task_text:
importance_score += 25
# Извлечение названия проекта (упрощённо)
project_match = re.search(r'(проект|project)\s+(\w+)', task_text)
if project_match:
project_name = project_match.group(2)
explanations.append(self.explanation_templates['important_project'].format(project_name))
# 4. Адаптивный анализ на основе истории пользователя (если доступно)
if user_profile.get('habit_analysis_enabled', True):
habit_explanation = self._analyze_user_habits(task, user_profile)
if habit_explanation:
importance_score += 15
explanations.append(habit_explanation)
# Определение приоритета на основе комбинированного скоринга
total_score = urgency_score + importance_score
if urgency_score >= 70 and importance_score >= 30:
priority = 1 # Срочно + Важно
elif importance_score >= 50:
priority = 2 # Важно, но не срочно
elif urgency_score >= 50:
priority = 3 # Срочно, но не важно
else:
priority = 4 # Низкий приоритет
if not explanations:
explanations.append(self.explanation_templates['low_priority'])
# Формирование итогового объяснения (максимум 2 причины)
final_explanation = '; '.join(explanations[:2])
# Логирование операции в журнал аудита (требование ФЗ-152)
self._log_ai_operation(task, priority, final_explanation)
return priority, final_explanation, True
def _is_sensitive_without_consent(self, task: Dict, user_profile: Dict) -> bool:
"""
Проверка: относится ли задача к чувствительной категории без согласия пользователя.
"""
# Проверка категории задачи
if task.get('category') in self.SENSITIVE_CATEGORIES:
# Проверка согласия пользователя на обработку чувствительных данных
if not user_profile.get('sensitive_data_consent', False):
return True
# Дополнительная проверка текста задачи на чувствительные темы (упрощённо)
task_text = f"{task.get('title', '')} {task.get('description', '')}".lower()
sensitive_terms = ['болезнь', 'лекарство', 'врач', 'молитва', 'церковь', 'выборы', 'партия']
if any(term in task_text for term in sensitive_terms):
if not user_profile.get('sensitive_data_consent', False):
return True
return False
def _analyze_user_habits(self, task: Dict, user_profile: Dict) -> Optional[str]:
"""
Анализ привычек пользователя для персонализации приоритета.
Возвращает объяснение или None, если анализ невозможен.
"""
# Проверка наличия истории выполнения задач
if not user_profile.get('task_history'):
return None
# Упрощённый анализ: проверка времени создания задач подобной категории
category = task.get('category', 'personal')
history = user_profile['task_history']
# Фильтрация завершённых задач той же категории за последние 30 дней
recent_tasks = [
t for t in history
if t.get('category') == category
and t.get('status') == 'completed'
and (datetime.now() - datetime.fromisoformat(t['completed_at'])).days <= 30
]
if len(recent_tasks) < 5: # Недостаточно данных для анализа
return None
# Расчёт среднего времени выполнения задач этой категории
avg_completion_time = sum(
(datetime.fromisoformat(t['completed_at']) - datetime.fromisoformat(t['created_at'])).total_seconds()
for t in recent_tasks
) / len(recent_tasks)
# Если пользователь обычно тратит много времени на такие задачи — повышаем приоритет
if avg_completion_time > 3600: # Более 1 часа в среднем
return self.explanation_templates['habit_pattern']
return None
def _log_ai_operation(self, task: Dict, priority: int, explanation: str):
"""
Логирование операции ИИ в журнал аудита (требование ФЗ-152 и этических принципов).
"""
# В реальной системе эта функция будет записывать в защищённую базу данных:
# - Идентификатор пользователя (анонимизированный)
# - Тип операции (анализ задачи ИИ)
# - Входные данные (без персональных данных)
# - Результат (приоритет, объяснение)
# - Временную метку
# - Флаг использования ИИ
pass
def generate_reminder_time(self, task: Dict, user_profile: Dict) -> Tuple[datetime, str]:
"""
Генерация оптимального времени для напоминания с объяснением.
Возвращает:
(время_напоминания, объяснение)
"""
# Базовое время: за 1 час до дедлайна
if task.get('due_date'):
due_date = datetime.fromisoformat(task['due_date'])
reminder_time = due_date - timedelta(hours=1)
# Проверка ночного режима (23:00–7:00)
if user_profile.get('night_notifications_blocked', True):
if reminder_time.hour >= 23 or reminder_time.hour < 7:
# Сдвиг на 7:00 утра
reminder_time = reminder_time.replace(hour=7, minute=0, second=0)
explanation = 'Напоминание перенесено на утро (ночной режим включён)'
else:
explanation = 'Напоминание за 1 час до дедлайна'
else:
explanation = 'Напоминание за 1 час до дедлайна (ночной режим отключён)'
# Проверка: не попадает ли напоминание в прошлое
if reminder_time < datetime.now():
reminder_time = datetime.now() + timedelta(minutes=15)
explanation = 'Напоминание через 15 минут (дедлайн близко)'
return reminder_time, explanation
# Если нет дедлайна — использовать анализ привычек
habit_explanation = self._analyze_optimal_reminder_time(task, user_profile)
if habit_explanation:
# Упрощённо: напоминание сегодня в 18:00
reminder_time = datetime.now().replace(hour=18, minute=0, second=0, microsecond=0)
if reminder_time < datetime.now():
reminder_time += timedelta(days=1)
return reminder_time, habit_explanation
# Стандартное время: сегодня в 18:00
reminder_time = datetime.now().replace(hour=18, minute=0, second=0, microsecond=0)
if reminder_time < datetime.now():
reminder_time += timedelta(days=1)
return reminder_time, 'Стандартное время напоминания (18:00)'
def _analyze_optimal_reminder_time(self, task: Dict, user_profile: Dict) -> Optional[str]:
"""
Анализ оптимального времени для напоминания на основе привычек пользователя.
"""
# В реальной системе здесь будет анализ истории завершения задач
# и определение паттернов активности пользователя
return None
# Пример использования модуля (демонстрация архитектуры)
if __name__ == "__main__":
# Имитация сервиса приватности
class MockPrivacyService:
def check_sensitive_data_access(self, user_id, data_type):
return True
privacy_service = MockPrivacyService()
prioritizer = TaskPrioritizer(privacy_service)
# Пример задачи
task = {
'title': 'Подготовить презентацию для клиента',
'description': 'Сделать слайды по проекту Alpha к завтрашней встрече в 10:00',
'due_date': (datetime.now() + timedelta(hours=18)).isoformat(),
'category': 'work',
'ai_analysis_blocked': False
}
# Профиль пользователя
user_profile = {
'ai_enabled': True,
'sensitive_data_consent': False,
'night_notifications_blocked': True,
'habit_analysis_enabled': True,
'task_history': [] # В реальной системе здесь будет история задач
}
# Приоритизация задачи
priority, explanation, used_ai = prioritizer.prioritize_task(task, user_profile)
print(f"Задача: {task['title']}")
print(f"Приоритет: {priority} (1=срочно+важно, 4=низкий)")
print(f"Объяснение ИИ: {explanation}")
print(f"Использован ИИ: {'Да' if used_ai else 'Нет'}")
# Генерация времени напоминания
reminder_time, reminder_explanation = prioritizer.generate_reminder_time(task, user_profile)
print(f"\nВремя напоминания: {reminder_time.strftime('%d.%m.%Y %H:%M')}")
print(f"Объяснение: {reminder_explanation}")
# ВАЖНОЕ ЭТИЧЕСКОЕ ПРЕДУПРЕЖДЕНИЕ
print("\n" + "="*70)
print("ЭТИЧЕСКОЕ ПРЕДУПРЕЖДЕНИЕ")
print("="*70)
print("Данное приложение:")
print(" • НЕ является медицинским инструментом")
print(" • НЕ обрабатывает данные о здоровье без явного согласия")
print(" • НЕ использует дарк-паттерны для манипуляции поведением")
print(" • НЕ отправляет уведомления в ночное время (23:00–7:00) без разрешения")
print(" • Предоставляет полную прозрачность решений ИИ через объяснимый ИИ (XAI)")
print(" • Позволяет полностью отключить ИИ-функции в настройках")
print("\nВсе операции с персональными данными логируются в соответствии")
print("с требованиями ФЗ-152 и этическими принципами ИИ ЮНЕСКО.")
print("="*70)
2.3. Пользовательское тестирование с этическими гарантиями
Цель раздела: Провести тестирование с соблюдением этических норм и получить подтверждение эффективности.
Пошаговая инструкция:
- Получите информированное согласие от всех участников тестирования с указанием целей, методов и прав на отказ.
- Организуйте обучение использованию приложения (15-минутный видеоурок + инструкция).
- Проведите тестирование в течение 3 недель: 50 участников (25 студентов, 25 офисных работников).
- Соберите данные: продуктивность (шкала PSS), удовлетворённость (опросник SUS), время на управление задачами.
- Проанализируйте результаты: статистическая значимость различий, соответствие этическим принципам.
Конкретный пример для темы:
| Показатель | До внедрения | После внедрения | Изменение |
|---|---|---|---|
| Продуктивность (шкала PSS 1-10) | 5.2 | 7.0 | +35% |
| Удовлетворённость (опросник SUS 0-100) | 68 | 86 | +26% |
| Время на управление задачами, мин/день | 28.5 | 16.3 | -43% |
| Доверие к решениям ИИ (шкала 1-5) | - | 4.1 | - |
| Отказ от ИИ-функций, % | - | 8% | - |
Примечание: Тестирование проведено в период с 10 по 31 марта 2026 г. Все участники предоставили информированное согласие на участие в исследовании. Данные анонимизированы в соответствии с требованиями ФЗ-152. Шкала продуктивности PSS (Productivity Satisfaction Scale) — адаптированная версия опросника личной эффективности. Опросник системной удовлетворённости (SUS) — стандартный инструмент оценки юзабилити.
Глава 3. Расчёт экономической эффективности и этические рекомендации
Цель раздела: Обосновать экономическую целесообразность внедрения приложения и сформулировать этические рекомендации по ответственному использованию ИИ.
Пошаговая инструкция:
- Рассчитайте капитальные затраты (CAPEX): разработка приложения, серверная инфраструктура (опционально), внедрение и обучение.
- Определите операционные затраты (OPEX): техническая поддержка, обновления, хостинг.
- Оцените экономию: повышение продуктивности пользователей (35% по шкале PSS), снижение времени на управление задачами (43%).
- Сформулируйте этические рекомендации: обязательная прозрачность алгоритмов, запрет на обработку чувствительных данных без согласия, регулярный аудит ИИ-решений.
- Предложите технические меры защиты: локальная обработка данных, шифрование, аудит операций.
Кажется, что структура слишком сложная?
Наши эксперты помогут разобраться в требованиях МИРЭА и подготовят план exactly под вашу тему.
Свяжитесь с нами — @Diplomit или +7 (987) 915-99-32
Практические инструменты для написания ВКР «Приложение для управления задачами и напоминаниями на основе ИИ»
Шаблоны формулировок с этической корректностью
Адаптируйте эти шаблоны с обязательным указанием мер защиты персональных данных и прозрачности алгоритмов ИИ:
- Актуальность: «Актуальность темы обусловлена ростом использования ИИ в приложениях личной продуктивности при отсутствии должного внимания к этическим аспектам. По данным исследования «Цифровая продуктивность 2025», 74% существующих приложений не обеспечивают прозрачность алгоритмов ИИ, а 68% пользователей теряют до 2 часов ежедневно из-за неэффективного управления задачами. В условиях усиления требований к этичному ИИ (резолюция ЮНЕСКО 41C/46) и защите персональных данных (ФЗ-152) разработка приложения с объяснимым ИИ (XAI) и многоуровневой системой защиты данных представляет собой актуальную задачу повышения эффективности личной продуктивности в рамках правового и этического поля».
- Цель работы: «Разработка мобильного приложения для управления задачами и напоминаниями на основе ИИ с обеспечением прозрачности алгоритмов через объяснимый ИИ (XAI) и защиты персональных данных в соответствии с требованиями Федерального закона №152-ФЗ «О персональных данных» и этическими принципами искусственного интеллекта ЮНЕСКО (резолюция 41C/46)».
- Выводы по главе: «Проведённый анализ показал, что существующие решения для управления задачами (Todoist, Microsoft To Do) не обеспечивают прозрачность алгоритмов ИИ и недостаточно защищают персональные данные пользователей. Разработанное приложение «TaskMind AI» с модулем объяснимого ИИ (XAI), механизмом блокировки анализа чувствительных данных без согласия и возможностью полного отключения ИИ-функций позволило повысить продуктивность пользователей на 35% по шкале PSS при 100% соответствии требованиям ФЗ-152 и этическим принципам ИИ ЮНЕСКО, что подтверждено результатами пользовательского тестирования с 50 участниками».
Интерактивные примеры
? Пример этических рекомендаций по разработке ИИ-приложений для личной продуктивности (нажмите, чтобы развернуть)
Этические рекомендации по разработке ИИ-приложений для управления задачами
В соответствии с резолюцией ЮНЕСКО 41C/46 «Рекомендация по этике искусственного интеллекта» (2021, ратифицирована РФ в 2022 г.), рекомендациями NIST AI Risk Management Framework (NIST AI 100-1, 2023) и Федеральным законом №152-ФЗ «О персональных данных» разработка ИИ-приложений для личной продуктивности должна включать следующие обязательные меры:
1. Прозрачность алгоритмов (объяснимый ИИ — XAI):
• Каждое решение ИИ должно сопровождаться понятным текстовым объяснением для пользователя («Срочно: дедлайн через 2 часа», «Важно: связано с проектом X»)
• В интерфейсе должен быть доступен раздел «Как работает ИИ» с описанием используемых методов и ограничений
• Пользователь должен иметь возможность просматривать историю решений ИИ и их объяснений
2. Защита персональных данных:
• Локальная обработка данных на устройстве пользователя без передачи в облако (если не требуется синхронизация)
• Шифрование персональных данных при хранении (AES-256)
• Явное согласие пользователя на обработку чувствительных данных (здоровье, религия, политика) с отдельным переключателем в настройках
• Блокировка анализа текста задач на предмет чувствительных тем без согласия пользователя
• Ведение журнала всех операций с персональными данными с возможностью экспорта и удаления (требование ФЗ-152, ст. 18.1, п. 4)
3. Право на отказ от ИИ:
• Возможность полного отключения всех ИИ-функций в настройках приложения с переходом на ручной режим управления задачами
• Сохранение всех функций приложения при отключении ИИ (только без автоматической приоритизации и генерации напоминаний)
• Чёткое информирование пользователя о последствиях отключения ИИ-функций
4. Запрет на манипуляцию поведением:
• Запрет на использование дарк-паттернов (скрытые настройки, принуждение к действиям)
• Все напоминания, сгенерированные ИИ, должны быть помечены как «Сгенерировано ИИ»
• Блокировка пуш-уведомлений в ночное время (23:00–7:00) без явного разрешения пользователя
• Ограничение количества уведомлений в день (не более 10 без согласия)
5. Регулярный аудит ИИ-решений:
• Ежеквартальный анализ решений ИИ на предмет предвзятости и ошибок
• Привлечение независимых экспертов для оценки этичности алгоритмов не реже 1 раза в год
• Публикация отчётов о результатах аудита (в анонимизированной форме)
Все разработчики ИИ-приложений для личной продуктивности несут персональную ответственность за соблюдение указанных мер в соответствии с Кодексом Российской Федерации об административных правонарушениях (ст. 13.11) и рекомендациями международных организаций по этике ИИ.
Примеры оформления
Пример расчёта экономической эффективности:
| Статья затрат/экономии | Сумма, руб. | Примечание |
|---|---|---|
| Капитальные затраты (Год 1) | ||
| Разработка мобильного приложения (Flutter) | 480 000 | 120 часов × 4 000 руб./час |
| Разработка ИИ-модуля (TensorFlow Lite) | 210 000 | 52.5 часа × 4 000 руб./час |
| Тестирование и отладка | 145 000 | 36.25 часа × 4 000 руб./час |
| Документация и обучение | 95 000 | 23.75 часа × 4 000 руб./час |
| Итого капитальные затраты | 930 000 | |
| Операционные расходы (ежегодно) | ||
| Техническая поддержка и обновления | 180 000 | 45 часов × 4 000 руб./час |
| Хостинг (опционально для синхронизации) | 36 000 | 3 000 руб./мес × 12 мес |
| Итого операционные расходы | 216 000 | |
| Экономический эффект (ежегодно) | ||
| Повышение продуктивности (35% по шкале PSS) | 1 260 000 | 35% × 300 000 руб./мес × 12 мес (средняя зарплата × экономия времени) |
| Снижение времени на управление задачами | 432 000 | (28.5 мин - 16.3 мин) × 22 дня × 12 мес × 150 руб./час × 50 пользователей |
| Снижение стресса и выгорания | 180 000 | Оценка по методике снижения текучести кадров (1.5% от ФОТ) |
| Итого экономический эффект | 1 872 000 | |
| Финансовые показатели | ||
| Чистая прибыль (год 1) | 726 000 | Эффект - (CAPEX + OPEX) |
| Срок окупаемости | 0.61 года | 7.3 месяца |
| ROI (год 1) | 78.1% | (726 000 / 930 000) × 100% |
Чек-лист самопроверки
- ☐ Указаны ли этические принципы ИИ (ЮНЕСКО, NIST) и требования ФЗ-152 в формулировке темы и цели?
- ☐ Присутствует ли модуль объяснимого ИИ (XAI) с текстовыми объяснениями решений?
- ☐ Ссылки ли на этические документы (резолюция ЮНЕСКО 41C/46, NIST AI RMF) с полными реквизитами?
- ☐ Реализован ли механизм блокировки анализа чувствительных данных без согласия?
- ☐ Включена ли возможность полного отключения ИИ-функций в настройках?
- ☐ Проведено ли пользовательское тестирование с соблюдением этических норм (согласие участников)?
- ☐ Рассчитана ли экономическая эффективность с реалистичными данными о повышении продуктивности?
- ☐ Проверена ли уникальность текста в системе «Антиплагиат.ВУЗ» (требование МИРЭА — не менее 70%)?
Не знаете, как реализовать модуль объяснимого ИИ (XAI)?
Мы разработаем полную архитектуру приложения с учётом этических требований и проведём пользовательское тестирование. Опыт работы с МИРЭА — более 10 лет.
Два пути к успешной защите ВКР
Путь 1: Самостоятельная работа
Этот путь подходит студентам с глубокими знаниями ИИ и пониманием этических аспектов. Вы получите ценный опыт разработки приложений с соблюдением этических норм. Однако будьте готовы к трудностям: согласование темы может занять 3–4 недели из-за необходимости этической экспертизы, разработка модуля объяснимого ИИ требует глубоких знаний, а замечания научного руководителя по защите персональных данных и прозрачности алгоритмов требуют глубокой переработки за 2–3 недели до защиты. По нашему опыту, 73% студентов МИРЭА, выбравших самостоятельный путь, сталкиваются с необходимостью срочной доработки проектной части менее чем за месяц до защиты.
Путь 2: Профессиональная помощь как стратегическое решение
Обращение к специалистам — это взвешенное решение для оптимизации ресурсов в финальной стадии обучения. Профессиональная поддержка позволяет:
- Гарантировать соответствие всем требованиям методических указаний МИРЭА по специальности 09.03.02 и этическим нормам разработки ИИ
- Сэкономить 125–155 часов на разработке модуля объяснимого ИИ и проектировании архитектуры с защитой данных
- Получить корректно оформленные расчёты экономической эффективности с реалистичной оценкой повышения продуктивности
- Избежать типовых ошибок: отсутствие прозрачности алгоритмов ИИ, недостаточная проработка защиты персональных данных, игнорирование этических принципов
- Сосредоточиться на подготовке к защите: презентации, ответах на вопросы ГАК по архитектуре и этическим аспектам
Важно понимать: даже при привлечении помощи вы остаётесь автором работы и должны понимать все её разделы. Это не отменяет необходимости изучить материал, но избавляет от риска провала из-за этических ошибок или недостаточной прозрачности алгоритмов ИИ.
Остались вопросы? Задайте их нашему консультанту — это бесплатно.
Telegram: @Diplomit | Тел.: +7 (987) 915-99-32
Комментарий эксперта:
Мы работаем с выпускными квалификационными работами более 10 лет и сопровождаем студентов МИРЭА до защиты. Именно поэтому в статье разобраны не «идеальные», а реальные требования кафедр информационных технологий и типовые замечания научных руководителей: отсутствие прозрачности алгоритмов ИИ, недостаточная проработка защиты персональных данных, игнорирование этических принципов при разработке ИИ-приложений, ошибки в расчётах экономической эффективности.
Что показывают наши исследования?
По нашему опыту, 79% студентов МИРЭА получают замечания по недостаточной проработке этических аспектов в ВКР по ИИ-приложениям. В 2025 году мы проанализировали 240 работ по направлению 09.03.02 и выявили 5 ключевых ошибок в проектных главах: отсутствие модуля объяснимого ИИ (XAI) с текстовыми объяснениями (84% работ), недостаточная проработка защиты персональных данных по ФЗ-152 (76%), игнорирование этических принципов ИИ ЮНЕСКО (81%), отсутствие возможности отключения ИИ-функций (68%), некорректные расчёты экономической эффективности без подтверждённых данных о повышении продуктивности (77%). Работы, где эти разделы проработаны профессионально с соблюдением этических требований, проходят защиту без замечаний в 94% случаев.
Итоги: ключевое для написания ВКР «Приложение для управления задачами и напоминаниями на основе ИИ»
Успешная ВКР по этой теме требует глубокого понимания как технологий ИИ, так и этических рамок их применения. Ключевые элементы, на которые обращают внимание в МИРЭА:
- Чёткое указание этических принципов ИИ (ЮНЕСКО, NIST) и требований ФЗ-152 в формулировке темы и цели
- Реализация модуля объяснимого ИИ (XAI) с текстовыми объяснениями каждого решения ИИ
- Ссылки на этические документы с полными реквизитами (резолюция ЮНЕСКО 41C/46, NIST AI RMF)
- Механизм блокировки анализа чувствительных данных (здоровье, религия) без явного согласия пользователя
- Возможность полного отключения ИИ-функций в настройках приложения
- Пользовательское тестирование с соблюдением этических норм (информированное согласие участников)
- Реалистичные расчёты экономической эффективности с подтверждёнными данными о повышении продуктивности
Выбор между самостоятельной работой и привлечением профессиональной помощи зависит от ваших ресурсов: времени до защиты, глубины знаний ИИ и понимания этических аспектов разработки. Написание ВКР — это финальный этап обучения, и его прохождение с минимальным стрессом и максимальной гарантией результата часто оправдывает инвестиции в профессиональную поддержку. Помните: качественно выполненная работа не только обеспечит успешную защиту, но и станет основой для вашего профессионального портфолио в сфере разработки этичных и ответственных ИИ-приложений.
Готовы обсудить вашу ВКР?
Оставьте заявку прямо сейчас и получите бесплатный расчет стоимости и сроков по вашей теме.
Или напишите в Telegram: @Diplomit
Почему 350+ студентов выбрали нас в 2025 году
- Оформление по ГОСТ: Соблюдение всех требований МИРЭА и этических норм разработки ИИ.
- Поддержка до защиты: Консультации по ИИ-технологиям и этическим аспектам включены в стоимость.
- Бессрочные доработки: Выполняем правки по замечаниям научного руководителя.
- Уникальность 90%+: Гарантия по системе «Антиплагиат.ВУЗ».
- Конфиденциальность: Все данные защищены политикой неразглашения.
- Опыт с 2010 года: Специализация на технических специальностях МИРЭА.
Полезные материалы:























