Kiedy?
Opis projektu
Wyobraźcie sobie świat, w którym jedne z najpotężniejszych narzędzi ludzkości potrafią z niezachwianą pewnością siebie opowiadać o książkach, które nigdy nie zostały napisane, cytować słowa wielkich myślicieli, których nigdy nie wypowiedzieli, i tworzyć przekonujące wyjaśnienia zjawisk, które są całkowicie fałszywe. Wyobraźmy sobie także ucznia szkoły średniej, który na prośbę o wyjaśnienie przyczyn wybuchu Powstania Warszawskiego otrzymuje od AI płynną, elokwentną odpowiedź, w której pojawia się informacja o kluczowym wsparciu wojsk napoleońskich. Informacja jest fałszywa, ale brzmi wiarygodnie.
Ten świat już nie należy do science fiction – żyjemy w nim dzisiaj. Zjawisko, które naukowcy nazywają „halucynacjami sztucznej inteligencji”, stało się jednym z najbardziej paradoksalnych wyzwań naszej epoki: technologie, które miały zwiększyć dostęp do wiedzy, okazują się równie sprawne w produkowaniu wyrafinowanego fałszu.
Halucynacje AI nie są przypadkowym błędem w kodzie, który można łatwo naprawić kolejną aktualizacją. To fundamentalna cecha architektury, na której opierają się współczesne modele językowe – stochastycznych Transformerów, które „myślą” w kategoriach prawdopodobieństwa, nie prawdy. Gdy próbujemy zrozumieć, skąd biorą się te cyfrowe omamy, odkrywamy, że „wiedza” sztucznej inteligencji w ogóle nie spełnia klasycznych kryteriów wiedzy jako „uzasadnionego, prawdziwego przekonania”. Jej uzasadnienia są statystyczne, nie logiczne. Jej prawdziwość jest przypadkowa, nie systematyczna. A jednak działa z taką pewnością siebie, że często przewyższa ludzkich ekspertów w przekonywaniu audytorium.
Nie ma prostych odpowiedzi na to, jak żyć z technologią, która jednocześnie powiększa i zagraża naszym możliwościom poznawczym. Możemy uczyć się sztuki zadawania pytań, które ograniczają kreatywność AI. Możemy budować systemy RAG, które opierają odpowiedzi na zweryfikowanych bazach wiedzy. Możemy organizować „polowania na halucynacje” jako nową formę edukacyjnej gry. Ale wszystkie te strategie wymagają czegoś fundamentalnego: zrozumienia, że żyjemy w epoce, w której technologia nie zastępuje ludzkiego myślenia, ale zmusza nas do jego redefinicji.
To zaproszenie kieruję do wszystkich, którzy nie chcą być biernymi świadkami tej transformacji – do nauczycieli zastanawiających się nad przyszłością edukacji, do prawników borykających się z nowymi wyzwaniami etycznymi, do studentów próbujących zrozumieć świat, w którym będą żyć, i do każdego, kto wierzy, że w obliczu rewolucji technologicznej najpotrzebniejszą umiejętnością pozostaje umiejętność myślenia.
Toteż prezentowany wykład ma małe, acz maksymalistyczne cele – zarówno starać się znaleźć sposoby rozumienia nowego zjawiska, jakim są „halucynacje” AI, jak i poszukiwać możliwości normatywnych, prawnych narzędzi przeciwdziałania niepożądanym (?) efektom działania sztucznej inteligencji.
Gdzie?
Wydział Prawa i Administracji UMCS, Wydział Prawa i Administracji UMCS, Plac Marii Curie-Skłodowskiej 5, 20-031 Lublin, Lublin
Podobne projekty
W najbliższym czasie nie odbywają się tutaj żadne wydarzenia
Dla kogo?
Kategorie projektu
Kierownik Projektu
Dane zanonimizowaneDane zanonimizowane
Email: Dane archiwalne zanonimizowane
Współorganizatorzy:- Maciej Stodółkiewicz