Data publikacji : 2025-12-19

Badanie porównawcze testów językowych generowanych przez sztuczną inteligencję i testów nauczycielskich

Abstrakt

Artykuł analizuje właściwości pomiarowe testów leksykalnych w formacie wyboru wielokrotnego (multiple choice, MC) generowanych przy użyciu sztucznej inteligencji (artificial intelligence, AI), poprzez porównanie ich wartości psychometrycznej z testami opracowanymi przez nauczyciela. Utworzono dwa zestawy klasowych testów sprawdzających (criterion-referenced tests, CRT), mających na celu ocenę znajomości słownictwa wcześniej omawianego na lekcjach. W każdym zestawie znalazł się jeden test w całości wygenerowany przez AI oraz drugi, w którym opcje odpowiedzi zostały przygotowane tradycyjnie lub zmodyfikowane na podstawie propozycji AI. Testy przeprowadzono wśród uczniów szkoły średniej. Analiza skupiła się na współczynnikach rzetelności oraz wskaźnikach jakości zadań testowych, zwłaszcza tych, które są istotne w kontekście CRT. Wyniki wskazują, że wykorzystanie AI istotnie zwiększa praktyczność testowania, skracając czas i nakład pracy potrzebny do ich opracowania, jednak testy przygotowane przez nauczyciela odznaczały się lepszymi właściwościami psychometrycznymi.

Słowa kluczowe:

ocenianie językowe, klasowe testy sprawdzające, zadania wyboru wielokrotnego, automatyczne generowanie zadań, ChatGPT, ewaluacja testów i sprawdzianów



Szczegóły

Bibliografia

Statystyki

Autorzy

Pobierz pliki

pdf (English)

Wskaźniki altmetryczne


Cited by / Share


Roczniki Humanistyczne · ISSN 0035-7707 | eISSN 2544-5200 | DOI: 10.18290/rh
© Towarzystwo Naukowe KUL & Katolicki Uniwersytet Lubelski Jana Pawła II – Wydział Nauk Humanistycznych


Artykuły w czasopiśmie dostępne są na licencji Creative Commons Uznanie autorstwa – Użycie niekomercyjne – Bez utworów zależnych 4.0 Międzynarodowe (CC BY-NC-ND 4.0)