4.09.2023 Rynek medialny
Sztuczna inteligencja na uczelniach. Zakaz dla studentów nic nie da
Iga Leszczyńska, Nauka w Polsce
Zdaniem ekspertów studenci używają ChatGPT, ale odgórny zakaz wykorzystywania narzędzi bazujących na AI nie jest i nie będzie skuteczny. Należy zmienić metody weryfikacji wiedzy i umiejętności studentów. Środowisko akademickie nie może udawać, że problem nie istnieje.
Studenci byli jedną z grup, która najszybciej zaczęła używać ChatGPT po jego premierze, już w czasie sesji zimowej odbywającej się w styczniu i lutym 2023 roku - powiedział PAP Krzysztof Rychlicki-Kicior, dziekan Wydziału Technologii Informatycznych Akademii Ekonomiczno-Humanistycznej w Warszawie, ekspert SoDA.
Zaznaczył, że jego przydatność była istotna wszędzie tam, gdzie studenci mogli przy opracowywaniu zaliczeń korzystać z komputera – np. podczas pisania esejów, tworzenia prac zaliczeniowych, a nawet projektów informatycznych, mających formę prostych programów komputerowych.
- Ogromny potencjał tego narzędzia można, niestety, odnotować także przy pisaniu prac dyplomowych - powiedział Rychlicki-Kicior. Dodał, że wraz z upublicznieniem ChatGPT, pojawiły się narzędzia antyplagiatowe, które miały wykrywać jego użycie. Jednak nowsze wersje programu zmniejszyły szanse wykrywania plagiatów.
- To sprawia, że musimy dokonywać modyfikacji metod weryfikacji wiedzy i umiejętności, z położeniem większego nacisku na zaliczenie indywidualne - zaznaczył Rychlicki-Kicior.
W celu weryfikacji pracy, według Rychlickiego-Kiciora można poprosić studenta o modyfikację przesłanego programu – ale na miejscu, pod okiem wykładowcy. - To jednak wymaga dodatkowego czasu na weryfikację każdej osoby, co siłą rzeczy może generować pewne trudności - dodał.
Dziekan Wydziału Nauk Społecznych i Humanistycznych Collegium Witelona Uczelnia Państwowa, ekspert SoDA dr inż. Piotr Nadybski zwrócił uwagę, że już w tym momencie można zaobserwować dość wyraźną poprawę jakości pisanych prac zaliczeniowych, które zbiegły się w czasie z udostępnieniem ChatGPT.
- W środowisku akademickim sprawą dość oczywistą było, że potencjalne problemy związane z ChatGPT zmaterializują się bardzo szybko. I rzeczywiście, pierwsze symptomy pojawiły się już w trakcie sesji zimowej roku akademickiego 2022/2023 - powiedział.
Dodał, że można było zaobserwować przypadki dość wyraźnej poprawy jakości pisemnych prac zaliczeniowych, w szczególności na tle wcześniejszego "dorobku" konkretnego studenta.
- Poza oczywistymi sytuacjami, gdzie np. nieopatrznie nie usunięto fragmentów konwersacji z botem, zadawanych pytań itp., jednoznaczne stwierdzenie, że dana tekst, kod źródłowy czy inne opracowanie zostało wygenerowane przez model GPT jest w zasadzie niemożliwe - powiedział Nadybski.
Zaznaczył, że przy sprawdzaniu prac studentów pozostaje doświadczenie i intuicja wykładowcy, który natychmiast wyczuwa dysonans pomiędzy tym co czyta w danym momencie i tym, co przeczytał w trakcie wielu lat swojej pracy dydaktycznej i naukowej. Dodał, że jego zdaniem narzędzia do detekcji są niedoskonałe i prawdopodobnie nigdy nie przestaną takie być.
- W przypadku potencjalnego sporu wykładowca - student co do samodzielności przygotowania pracy są w zasadzie bezużyteczne. W przeciwieństwie do klasycznego plagiatu, gdzie narzędzia informatyczne potrafią doskonale wskazać stopień podobieństwa pomiędzy tekstami, tutaj namacalnych, jednoznacznych dowodów nie ma - powiedział.
Zaznaczył, że rozwiązania polegające na odgórnym zakazie wykorzystywania narzędzi bazujących na AI, nie są i nie będą skuteczne. Tworzenie zakazów bez narzędzi pozwalających je egzekwować prowadzi do powstawania pustych przepisów.
- Środowisko akademickie nie może udawać, że problem nie istnieje - musi dostosować się do wymogów rzeczywistości! - podsumował Nadybski - Nawet jeśli student będzie korzystał z pomocy sztucznej inteligencji do generowania fragmentów tekstu, to w takim przypadku sformułowanie hipotez czy wniosków wymaga już zaangażowania intelektualnego studenta - a to jest przecież najważniejszy element kształcenia akademickiego.
***
artykuł pochodzi z portalu PAP Naukawpolsce.pl
Udostępniany jest na wolnej licencji.
PRZERWA NA REKLAMĘ
Zobacz artykuły na podobny temat:
Publiczni nadawcy i newsy w social media. Badanie Reuters Institute
BARD
Na Facebooku i Twitterze najaktywniejszy jest Franceinfo, internetowe ramię publicznego radia i telewizji z Francji. Z Instagrama najintensywniej korzysta brytyjskie BBC. Najmniej pracowników dba o media społecznościowe włoskiego RAI, choć wcale nie są one najskromniejsze. Reuters Institute zbadał aktywność newsową w mediach społecznościowych największych nadawców publicznych Europy.
Dogma mediów
Marek Miller
Dogma wzięła się z tęsknoty za jasnością kryteriów, za czytelnym oddzieleniem dobra od zła, prawdy od fałszu, sztuki dziennikarskiej od jej pozorów. [Źródło: Tygodnik Powszechny]
Wiadomości z asystenta głosowego. Raport Reuters Institute
Krzysztof Fiedorek
Amazon Echo kontra Google Home. Smart speakers, czyli asystenci głosowi to urządzenia, które przebojem wkraczają do naszych domów. Nic Newman z Reuters Institute zbadał ich wykorzystanie i potencjał jako źródeł wiadomości. Wyniki są bardzo obiecujące.
Praca w mediach. Mamy więcej ogłoszeń w Reporterzy.info [LINK]
AUTOPROMOCJA Reporterzy.info
Dzięki współpracy z serwisem rekrutacyjnym Talent.com mocno wzbogaciła się baza publikowanych w Reporterzy.info ogłoszeń rekrutacyjnych. Zapraszamy do przeglądania aktualnych ofert pracy i praktyk w mediach i branży reklamowej z największych polskich miast.
Jak dziennikarze wykorzystują media społecznościowe
Bartłomiej Dwornik
Przede wszystkim szukają inspiracji na blogach, nieco rzadziej na Facebooku. W to, co znajdą rzadko wierzą, a przynajmniej podchodzą z dużą rezerwą. Choć ocena wiarygodności kompletnie nie idzie w parze z atrakcyjnością.
Badania na temat wideo w internecie. Tak oglądają Polacy
Gabriela Jakimik
Połowa badanych przez IAB internautów w tradycyjnej TV ogląda tylko programy na żywo i filmy dokumentalne. Natomiast wszystkie pozostałe materiały (seriale, filmy, sport) głównie w sieci.
Fake newsom od sztucznej inteligencji wierzymy bardziej niż ludziom
KrzysztoF
Generowanie i szerzenie dezinformacji z pomocą sztucznej inteligencji może mieć negatywny wpływ na wiele dziedzin życia, w tym na ochronę zdrowia na świecie. Aby sprawdzić, jak tekst stworzony przez SI może wpłynąć na zrozumienie informacji przez odbiorców, naukowcy z Uniwersytetu Zuryskiego przyjrzeli się tweetom wytwarzanym przez GPT-3.