Jednolity System Antyplagiatowy (JSA) zyskał nowy moduł wykrywający treści generowane przez sztuczną inteligencję w pracach dyplomowych. To innowacyjne rozwiązanie ma na celu wsparcie uczelni w zapewnieniu samodzielności studentów podczas pisania prac dyplomowych, co jest kluczowe z perspektywy naukowej.
Chociaż pomoc AI w pisaniu prac może być wartościowa, istotne jest, aby
studenci korzystali z tych narzędzi w sposób transparentny i etyczny. Fot. px. |
Pomoc sztucznej inteligencji w procesie pisania nie jest negatywnie oceniana, jednak generowanie całości treści i podpisywanie się pod nią uważane jest za nieetyczne. Obecnie nie istnieją regulacje prawne dotyczące tego zagadnienia, co sprawia, że wykrywanie takich przypadków jest wyzwaniem dla uczelni.
Wzrost zainteresowania sztuczną inteligencją wśród studentów
Zainteresowanie studentów wykorzystaniem generatywnej sztucznej inteligencji w pisaniu prac dyplomowych rośnie. Z raportu „Technologia okiem studenta” opracowanego przez Digital Care wynika, że co piąty student planuje używać SI do pisania prac dyplomowych, a aż 68% zamierza korzystać z tych narzędzi podczas nauki do tworzenia prezentacji czy zadań domowych. Mimo pozytywnego odbioru SI w procesie kształcenia, część studentów obawia się, że praca dyplomowa napisana z pomocą sztucznej inteligencji może zostać uznana za niesamodzielną.
Nowy moduł w Jednolitym Systemie Antyplagiatowym
Od lutego każda uczelnia może wykorzystać nowy moduł w JSA do badania prac dyplomowych pod kątem użycia sztucznej inteligencji. Moduł ten bazuje na analizie regularności tekstu, wykorzystując miarę Perplexity, która ocenia schematyczność tekstu. Teksty generowane przez AI charakteryzują się wyższą regularnością, co umożliwia ich wykrycie. System JSA, od momentu wdrożenia w 2019 roku, znacząco uporządkował rynek antyplagiatowy, zmuszając uczelnie do weryfikowania wszystkich prac dyplomowych.
Regulacje i rekomendacje
W Polsce konsorcjum Cyber Science, w skład którego wchodzą m.in. Uniwersytet Śląski i Politechnika Śląska, opracowało rekomendacje dotyczące używania generatorów treści przez studentów i pracowników naukowych. Apelują one o krytyczne podejście do źródeł informacji i przeciwdziałanie podpisywaniu się pod treściami generowanymi przez SI. Rekomendowane jest także wyraźne oznaczanie fragmentów tekstu wygenerowanych przez sztuczną inteligencję.
Przykłady z zagranicy
W Holandii władze uczelni z Amsterdamu unieważniły zaliczenia prac napisanych przez ChatGPT, podkreślając, że plagiat jest poważnym naruszeniem zasad akademickich. Wykorzystanie sztucznej inteligencji w sposób nieetyczny może prowadzić do poważnych konsekwencji dla studentów, łącznie z wydaleniem ze studiów.
Podsumowanie
Wdrożenie modułów wykrywających treści generowane przez sztuczną inteligencję w systemach antyplagiatowych to krok w stronę zapewnienia uczciwości akademickiej. Chociaż pomoc AI w pisaniu prac może być wartościowa, istotne jest, aby studenci korzystali z tych narzędzi w sposób transparentny i etyczny. Wprowadzenie odpowiednich regulacji prawnych oraz edukacja na temat odpowiedzialnego korzystania z technologii są kluczowe dla przyszłości nauki.
Oprac. na podst. Newseria, db
Brak komentarzy:
Prześlij komentarz
Komentarze są moderowane.