Emostudent: набір даних для комплексної оцінки поведінки студентів

Автор(и)

DOI:

https://doi.org/10.15276/opu.1.67.2023.07

Ключові слова:

комп’ютерний зір, нейронні мережі, набір даних, розуміння дій, розуміння відео, розуміння емоцій, системи прокторингу на основі штучного інтелекту

Анотація

У цій статті розглянуті системи автоматизованого онлайн прокторингу, що основані на штучному інтелекті. Розглянута практична реалізація задачі аналізу поведінки учнів у процесі роботи з ними та набори даних, що використовуються для вирішення цієї задачі. Створена загальна модель обробки даних щодо аналізу активності людини у процесі онлайн-навчання, яка має за завдання аналізувати та описувати активність та емоційний стан учня. Для цього були виявлені різноманітні ознаки, які впливають на оцінку поведінки студента під час самостійної роботи над тестовими завданнями або іспитами. На основі аналізу існуючих наборів даних та з урахуванням проблем сучасних реалізацій автоматизованих систем онлайн прокторингу, зроблено класифікацію параметрів, що використовуються конкретно для аналізу відеопослідовностей в контексті вирішення задачі аналізу поведінки учнів. На основі цієЇ класифікації розроблено вимоги до необхідного набору даних, які б мінімізували проблеми дисбалансу класів, роблячи акцент не
на кількості даних у вибірці, а на якості цієї самої вибірки. На основі розроблених вимог був запропонований набор даних. Джерелом даних для розробленого набору даних була платформа YouTube: використовувались відео з ліцензією Creative Commons. Для організації процесу лейблінгу даних та формування набору даних: використовувалась платформа Amazon SageMaker. Сформований набір даних був доданий до платформ Kaggle та hugging Face. Це дозволяє поширити роботу серед інших вчених та розробників програмного продукту та перевірити на практиці розроблений набір даних у навчанні різноманітних реалізованих моделей штучних нейронних мереж.

Завантаження

Дані завантаження ще не доступні.

Посилання

Брескіна А. А. Розробка автоматизованої системи онлайн прокторингу. Вісник сучасних інформаційних технологій. 2023. Т. 6, № 2. С. 163–173. DOI: https://doi.org/10.15276/ hait.06.2023.11.

Critten J. The problem with proctoring (part 1). https://www.cu.edu/. 2021. URL: https://www.cu.edu/blog/online-teaching-blog/problem-proctoring-part-1 (date of access: 15.12.2022).

Jaschik S. ProctorU abandons business based solely on AI Code. https://www.insidehighered.com/. 2021. URL: https://www.insidehighered.com/news/2021/05/24/proctoru-abandons-business-based-solely-ai (date of access: 03.12.2022).

Safely using computers at work: guidelines for using computers. https://www.worksafe.govt.nz/. 2023. URL: https://www.worksafe.govt.nz/topic-and-industry/work-related-health/musculoskeletal-disorders/ ergonomics/safely-using-computers-at-work/ (date of access: 30.07.2022).

Working with display screen equipment (DSE). https://www.hse.gov.uk/. URL: https://www. hse.gov.uk/pubns/indg36.PDF (date of access: 31.07.2022).

Антощук С. Г., Брескіна А. А. Моделі аналізу дій людини в системах прокторингу на основі штучного інтелекту та набори даних для них. Прикладні аспекти інформаційних технологій. 2023. Т. 6, № 2. С. 190–200. DOI: https://doi.org/10.15276/aait.06.2023.14.

Schneider S. L., Heath A. F. 1 Uncovering ethnic and cultural diversity in Europe: a new classification of ethnic and cultural groups. 3rd international ESS conference. 2016. URL: https:// www.researchgate.net/ publication/313870067. (date of access: 30.05.2023).

List of ethnic groups. https://www.ethnicity-facts-figures.service.gov.uk/. URL: https://www.ethnicity-facts-figures.service.gov.uk/style-guide/ethnic-groups (date of access: 05.05.2023).

About Classroom user accounts. https://support.google.com/. URL: https://support.google. com/edu/classroom/answer/7582372 (date of access: 04.03.2023).

Horng W.B., Lee C.P., Chen C.W. Classification of age groups based on facial features. Journal of applied science and engineering. 2001. Vol. 4, no. 3. 183–192. DOI: https://doi.org/ 10.6180/jase.2001.4.3.05.

The facial action coding system for characterization of human affective response to consumer product-based stimuli: a systematic review / E. A. Clark et al. Frontiers in psychology. 2020. Vol. 11. 920. DOI: https://doi.org/10.3389/fpsyg.2020.00920.

Farnsworth B. Facial action coding system (FACS) – A Visual Guidebook. https://imotions.com/. URL: https://imotions.com/blog/learning/research-fundamentals/facial-action-coding-system (date of access: 19.12.2022).

Amazon SageMaker. https://aws.amazon.com/. URL: https://aws.amazon.com/sagemaker/ (date of access: 05.05.2023).

Kaggle: your machine learning and data science community. https://www.kaggle.com/. URL: https:// www.kaggle.com/ (date of access: 05.05.2023).

Hugging Face – The AI community building the future. https://huggingface.co/. URL: https:// huggingface.co/ (date of access: 05.05.2023).

##submission.downloads##

Опубліковано

2023-06-16

Як цитувати

[1]
Breskina, A. і Antoshchuk, S. 2023. Emostudent: набір даних для комплексної оцінки поведінки студентів. Праці Одеського політехнічного університету. 1(67) (Чер 2023), 54–59. DOI:https://doi.org/10.15276/opu.1.67.2023.07.

Номер

Розділ

Інформаційні технології. Автоматизація