Kto kogo czego uczy? Merytoryczna i etyczna odpowiedzialność w erze AI

10.09.24
Powered by

W dobie dynamicznego rozwoju technologii i coraz powszechniejszego wykorzystywania nowych narzędzi projektowych rola edukatora staje się niezwykle złożona i wielowymiarowa. Choć to wykładowca tradycyjnie pełni rolę przewodnika, coraz częściej to studenci przynoszą do sal wykładowych i pracowni najnowsze rozwiązania technologiczne. Właśnie w takim kontekście warto zadać pytanie: kto kogo i czego uczy? Odpowiedź na to pytanie pozostaje co najmniej skomplikowana, ponieważ edukacja staje się powoli procesem wymiany wiedzy.

Coraz częściej relacje akademików ze studentami polegają na wspólnym odkrywaniu nowych narzędzi i technik, szczególnie w zakresie sztucznej inteligencji i zaawansowanego oprogramowania. To dobitnie pokazuje, że proces edukacji polega dziś na obustronnym transferze, a kluczem do jego powodzenia okazują się otwartość, elastyczność i umiejętność grania do jednej bramki. 

Mistrz w roli ucznia?

Od 7 lat pracuję ze studentami. Lubię to, ponieważ często to oni (nieświadomie) uczą mnie więcej niż ja ich. Moim zadaniem jest: przygotowanie ich do roli projektanta, zrozumienie znaczenia procesu projektowego, nauczenie odpowiedzialności i etyki oraz otwartości. Zawsze powtarzam, że dobra osoba projektancka cechuje się empatią i zmysłem obserwacji, ostatecznie jej życie zawodowe będzie polegało na tworzeniu rozwiązań dla innych, a nie dla siebie. 

Co to ma wspólnego z technologiami? Całkiem sporo. Programy komputerowe wspomagające projektowanie, których mnie uczono na studiach, nadal istnieją, ale albo znacząco ewoluowały, albo przeszły do lamusa. Współczesne osoby studenckie uczą się oprogramowania, którego ja nie znam i jest duża szansa, że w swoim życiu nie poznam, ponieważ w mojej niszy zawodowej nie są one do niczego potrzebne, co ładnie pokazuje, że na poziomie narzędzi uczniowie przerośli mistrzów. W programie studiów odbywają się dedykowane temu kursy, które prowadzą osoby specjalizujące się w tym konkretnym programie. Młodzi adepci projektowania dostają piórnik, z którego mogą potem wybrać potrzebne „kredki”. 

Jednak na poziomie AI idziemy łeb w łeb, regularnie dzieląc się nowinkami ze świata. Najpierw to ja zafascynowana technologią, kosmosem i przyszłością, przyjaźniąc się z Justyną Puchalską, dla której jest to temat zawodowy i która dla Was ten temat w ramach uzdalnionych rozwija, dzieliłam się ze studentami swoimi odkryciami zarówno pod kątem benefitów, jak i zagrożeń związanych z korzystania ze sztucznej inteligencji. Następnie to młodzi projektanci pokazywali mi różnice między MidJourney a Dall-e i razem wybieraliśmy, który program daje większe możliwości stworzenia grafik lepiej obrazujących projekt. Rozmawiając dziś z dyplomantami, zwracam im uwagę, aby podpisywali, z jakich programów AI korzystają, podawali daty i godziny dostępu oraz udostępniali prompty, których używają w swoich projektach i pracach dyplomowych.

Etyka projektowania we współpracy z AI

Nie mam nic przeciwko wykorzystywaniu najnowocześniejszych narzędzi do optymalizacji procesu – pod warunkiem, że robimy to jawnie i uczciwie. Oczywiście w tym podejściu wykazuję się również naiwnością, ponieważ wierzę, że będziemy w stosunku do siebie szczerzy, nie przypisując sobie researchów ani grafik, których nie zrobiliśmy całkowicie samodzielnie. Wiem również z własnego doświadczenia, ile pracy kosztuje stworzenie odpowiedniego promptu do wygenerowania oczekiwanej przeze mnie grafiki, podobnie jak umiejętna rozmowa z czatem GTP, a następnie sprawdzenie, czy uzyskane informacje są miarodajne. 

I to tu rola dydaktyka rośnie – młodzi ludzie nie potrafią weryfikować informacji, często łatwo się zniechęcają lub biorą podane przez generatory tekstu dane za fakty, bez nawyku weryfikacji ich autentyczności. To dzięki doświadczeniu i wiedzy mentorów mogą się nauczyć, jak sprawdzać, czy artykuł (źródło) podane przed Gemini lub OpenAI jest prawdziwy, weryfikować, czy cytowany autor istnieje i skąd sztuczna inteligencja wyciągnęła podane przez siebie dane statystyczne. Do tego często w pracach studenckich można spotkać przekopiowane całe akapity tekstu wygenerowane przez AI, co jest niezwykle łatwe do zidentyfikowania. Niewyszkolony algorytm używa bowiem powtarzalnych konstrukcji i w większości przypadków – zdań pojedynczo złożonych. Bardzo lubi też generować wiedzę w postaci punktorów, bez ubieranie ich w treści ciągłe, co ułatwia przyswajanie informacji, ale jednocześnie zdradza algorytmowy charakter powstawania tych tekstów. 

Jednolity System Antyplagiatowy to nie wszystko

Wykorzystując te przykłady, uświadamiam studentom, że choć nasze systemy antyplagiatowe jeszcze słabo sobie radzą z wyłapywaniem dowodów wykorzystania narzędzi sztucznej inteligencji, to my – jako promotorzy lub recenzenci – „czujemy pismo nosem”. Teoretycznie Jednolity System Antyplagiatowy (JSA) został rozbudowany do tego, by takie współprace (szczególnie te utajnione) wykrywać. Jednak, jak twierdzi Małgorzata Wartacz – kierowniczka projektu JSA, system ten nie daje stuprocentowej pewności, że tekst jest plagiatem lub został napisany przez sztuczną inteligencję, a określa wyłącznie prawdopodobieństwo. Dlatego zawsze ostateczna decyzja należy do promotora. To on weryfikuje raport otrzymany z JSA i stwierdza, czy dana praca dyplomowa jest oryginalna. Aktualnie nawet sami twórcy technologii ChatGPT nie dysponują takim narzędziem, które byłoby w stanie dokładnie ocenić, czy praca została napisana przez bota, czy przez człowieka.

To samo dzieje się z pracami graficznymi, w których AI nie stosuje praw fizyki, kadruje w kwadrat, i – co już słynne – dubluje palce, nosy i rozmywa twarze w kadrach grupowych. I to prawda, wszystkie te elementy można zlikwidować szkoleniem algorytmu, ale wymaga to pracy i de facto tworzy z narzędzia dedykowanego asystenta. Tymczasem z mojego doświadczenia wynika, że osoby, które doszły do tego poziomu, nie mają problemu z podawaniem w źródłach swojego projektu zestawu narzędzi wspomagających ich pracę, bo doskonale znają proporcje wkładu własnego w powstały efekt. 

Samo Gemini – generator tekstu od Google podaje:

  • Nie ma jednej, niezawodnej metody na wykrycie użycia AI w pracy dyplomowej. Najlepiej jest stosować kilka różnych metod i łączyć je z własnym doświadczeniem oraz intuicją.
  • Ważne jest, aby pamiętać, że korzystanie z AI nie zawsze jest plagiatem. Jeśli student korzysta z AI jako narzędzia do generowania pomysłów lub pomocy w pisaniu, ale ostateczna praca pozostaje jego własnym dziełem, to nie jest to plagiat.
  • Uczelnie powinny opracować jasne zasady dotyczące korzystania z AI w pracach dyplomowych. Powinny one również edukować studentów na temat etycznego korzystania z AI i konsekwencji plagiatu.

Wyzwania i odpowiedzialność akademickich użytkowników AI

Dlatego w przypadku wykorzystywania najnowszych technologii należałoby wypracowywać wspólne dla uczelni lub wydziałów regulaminy i wytyczne. Ważne też, aby sami akademicy prezentowali podobny poziom zaawansowania technologicznego, ponieważ w tym układzie pokoleniowym to studenci są często bardziej biegli w AI-owe klocki, co daje im przewagę, np. w kwestii ewentualnych nadużyć. Warto więc domagać się od organizacji dodatkowych szkoleń, pozwalających na systematyczne podnoszenia kompetencji kadry akademickiej w tej niezwykle dynamicznie rozwijającej się dziedzinie.

Sama na co dzień korzystając z jej dobrodziejstw, dostrzegam też wiele nadużyć i niedoskonałości wynikających z braku przepisów, wiedzy i wyobraźni. Przykładowo, algorytmy – w większości szkolone przez białych, heteroseksualnych mężczyzn – generując grafikę astronauty i astronautki, stworzą obraz mężczyzny w kombinezonie, a kobiety – w sukience. Nietrudno sobie wyobrazić, jakie treści wizualne będą powstawać w najbliższej przyszłości, kiedy algorytmy zaczną się uczyć w stanie rzeczywistym z sieci przesyconej nienawiścią, agresją i hejtem.

 Pamiętajmy, technologia sama w sobie nie jest ani dobra ani zła, jest narzędziem, tak jak był nim dynamit wynaleziony przez Nobla. Pytanie, jak go wykorzystamy i jak nauczymy korzystać z niego innych. 

Menu wiedzy:

  • książka: Człowiek na rozdrożu. Sztuczna inteligencja 25 punktów widzenia, opracowanie zbiorowe pod redakcją Johna Brocka
  • książka: Kate Crawford, Atlas sztucznej inteligencji. Władza pieniądze i środowisko naturalne
  • książka: Russell Stuart, Human Compatible. AI and the Problem of Control 
  • książka: Lee Kai-Fu, Qiufan Chen, Sztuczna inteligencja 2041 
  • blog i podcast: https://www.99twarzyai.pl/
Więcej z tej kategorii