Система проверки Д/З

TODO Задание это решено (Репозиторий проекта), требуется редизайн:

См. также https://github.com/Veniamin-Arefev/NetJudge

Предварительные знания

Проектное задание

Проект делится на 7 направлений работ (детализация будет):

  1. Система доставки. Позволяет скачивать / кешировать / обновлять все решения всех заданных Д/З всех зарегистрированных пользователей и формировать «паспорт» решения с метаданными (время первого/последнего коммита, закешированное расположение удалённых тестов и т. п.).

  2. Система массовой проверки. Позволяет запускать обе подсистемы тестирования на всех решениях всех задач всех пользователей, или выборочно по «срезу» (конкретный пользователь, пользователь & задача и т. п.). Здесь необходимо кеширование результатов. Подготавливает данные для подсистем оценки и публикации.

  3. Формальное тестирование без запуска решений. Для каждого Д/З можно задать набор проверочных условий (время сдачи, наличие тестов, наличие соответствующей регулярному выражению строки в программе-решении и т. п.). Запускает всю группу проверок на конкретном решении конкретного пользователя. Генерирует отчёт о проверке.

  4. Собственно проверялка. Позволяет запустить один комплект собственных и удалённых тестов на одном решении и генерировать отчёт о прохождении этих тестов. Проверялка должна работать в двух вариантах: дома у любого пользователя (в этом случае придётся пользоваться доставкой как минимум удалённых тестов) и в составе системы массовой проверки под управлением подсистемы изолированного запуска.

  5. Система изоляции запуска. В идеале — кроссплатформенная на питоне (исследовать принципиальную возможность такого подхода). Должна ограничивать: объём потреблямой памяти, количество запускаемых процессов, запись в файловую систему.

  6. Система оценки. Получает полную статистику от системы массового тестирования, применяет формулу оценивания (в идеале нужен интерфейс, чтобы преподаватель мог при необходимости вводить эту формулу), формирует отчёт для системы публикации. Должна уметь показывать отчёты в человекочитаемом виде, в том числе отчёты по «срезу» (как минимум, по конкретному пользователю).

  7. Система публикации результатов. Получает отчёт от системы оценки и формирует из него удобный HTML для публикации. Должна уметь запускаться как на произвольном компьютере, в составе всей системы, так и на изолированном хостинге (в идеале — предусмотреть интерфейс доставки отчётов и регулярное обновление).

Вводная (из переписки)

Есть два наших питоньих курса: LecturesCMC/PythonIntro2021 и LecturesCMC/PythonDevelopment2022; по каждому достаточно хорошо проработаны задания по лекциям, а вот задания по практикуму всё время «гуляют» из-за невозможности разумного (т. е. не тотального, но содержательного) отчёта по ним. С первым курсом легче, со вторым — сложнее, т. к. он наполовину ещё и на изучение Git ориентирован, и по Git тоже должны быть Д/З и отчёт по ним.

Для обработки заданий по практикуму написан некоторый скрипт-проверялка. Он что-то умеет, что-то — нет; хотя и рабочий, но писан на коленке «за один раз».

В идеале надо: - Сорганизоваться и написать ТЗ (оно довольно простое должно быть) - Начать делать эту проверялку не на колене, а с учётом ТЗ / roadmap - Довести её до состояния «кто угодно может ею индивидуально пользоваться для прогонки собственных тестов» к началу семестра - Довести её до состояния «преподаватель может ею пользоваться для формирования отчёта об успехах группы» к середине семестра.

В плане исследования — надо хорошенько покопать, как бы запуск произвольного чужого теста сделать побезопаснее.

FrBrGeorge/ActualEducationalTasks/PyJudge (последним исправлял пользователь FrBrGeorge 2023-05-01 22:58:30)