Patrząc na wiadomości, można odnieść wrażenie, że wkroczyliśmy w odcinek „Strefy mroku”, w którym rzeczy dawniej niemożliwe (lub przynajmniej bardzo trudne do wykonania) wydają się obecnie stosunkowo banalne dzięki współczesnej sztucznej inteligencji.
Stosowana odpowiedzialnie, sztuczna inteligencja może pomóc osiągać niesamowite rezultaty, takie jak technologie Digital Twin umożliwiające hiperrealistyczne symulacje i modelowanie rzeczywistych scenariuszy dla bezpieczniejszej produkcji samolotów; prognozy AI zapobiegające śmiertelności matek; pomoc w udostępnianiu większej ilości informacji poprzez digitalizację unikatowych, ręcznie pisanych materiałów archiwalnych; wykorzystanie AI w badaniach podpowierzchniowych (dotyczących infrastruktury podziemnej) w celu wspierania procesu tworzenia polityk publicznych; AI pomagająca odkrywać bardziej wydajne materiały do baterii w dziedzinie zielonej nauki – i wiele więcej.
Sztuczna inteligencja pozbawiona odpowiedzialnych granic może prowadzić do problemów, których lepiej unikać, jak pokazały niektóre doniesienia medialne i badania naukowe. Przy odpowiednich granicach, regulacjach i zasadach, AI może prowadzić do szybszych i bardziej efektywnych badań oraz przełomów w innowacjach, a także chronić jej wykorzystanie przed nieuczciwymi aktorami, na co zwrócili uwagę badacze z Uniwersytetu George’a Washingtona.
Część trudności związanych z wdrażaniem i przestrzeganiem zasad odpowiedzialnej sztucznej inteligencji wynika z faktu, że samo pojęcie „AI” jest niejednoznaczne, ponieważ nie posiada ustandaryzowanej definicji. Czy AI to uczenie maszynowe? Czy łączenie i usuwanie duplikatów danych można uznać za AI? Czy prosty skrypt to już AI? Trudno określić, co jest „odpowiedzialne” w kontekście AI, skoro istnieje tak wiele sposobów definiowania tego pojęcia.
Część trudności związanych z wdrażaniem i przestrzeganiem zasad odpowiedzialnej sztucznej inteligencji wynika z faktu, że samo pojęcie „AI” jest niejednoznaczne, ponieważ nie posiada ustandaryzowanej definicji. Czy AI to uczenie maszynowe? Czy łączenie i usuwanie duplikatów danych można uznać za AI? Czy prosty skrypt to już AI? Trudno określić, co jest „odpowiedzialne” w kontekście AI, skoro istnieje tak wiele sposobów definiowania tego pojęcia.
Akt o Sztucznej Inteligencji UE (EU AI Act) definiuje AI w Artykule 3.1 jako
„system oparty na maszynach, zaprojektowany do działania z różnym poziomem autonomii i mogący wykazywać adaptacyjność po wdrożeniu, który — dla określonych lub domyślnych celów — wnioskuje, na podstawie otrzymywanych danych, jak generować wyniki, takie jak prognozy, treści, rekomendacje lub decyzje, mogące wpływać na środowisko fizyczne lub wirtualne (2024).”
UNESCO definiuje AI jako
„technologię, która automatycznie generuje treści w odpowiedzi na polecenia wprowadzane w interfejsach konwersacyjnych opartych na języku naturalnym. Zamiast jedynie zestawiać istniejące strony internetowe, GenAI faktycznie tworzy nowe treści. Mogą one przybierać formy obejmujące wszystkie symboliczne reprezentacje ludzkiego myślenia: teksty pisane w języku naturalnym, obrazy (w tym fotografie, cyfrowe ilustracje i rysunki), filmy, muzykę oraz kod oprogramowania. GenAI jest trenowana przy użyciu danych zebranych ze stron internetowych, rozmów w mediach społecznościowych i innych źródeł online. Generuje swoje treści poprzez statystyczną analizę rozkładów słów, pikseli lub innych elementów w danych, które przetworzyła, oraz identyfikowanie i powtarzanie typowych wzorców (na przykład, które słowa zazwyczaj następują po innych) (2023, s.8).”
Amerykańska Służba Badań Kongresowych (Congressional Research Service) definiuje AI jako
„skomputeryzowane systemy, które działają i reagują w sposób powszechnie uznawany za wymagający inteligencji… [i] odnoszą się do modeli uczenia maszynowego (ML), opracowanych poprzez trenowanie na dużych wolumenach danych w celu generowania treści (2023).”
Istnieje wiele innych definicji AI poza tymi wymienionymi, a wiele z nich powstało jeszcze przed pojawieniem się dużych modeli językowych (LLM), które dziś są najczęściej stosowane. Większość definicji zgadza się jednak co do tego, że AI to nienadzorowany model trenowany na ogromnych ilościach danych, głównie pochodzących z otwartego internetu, wykorzystywany do generowania tekstów i obrazów na podstawie statystycznych przewidywań wynikających z procesu uczenia.
Poza problemem z definicjami, AI stała się nowym modnym hasłem — tak wiele produktów twierdzi, że wykorzystuje sztuczną inteligencję, mimo że faktycznie tak nie jest. Błędne oznaczanie tego, co jest, a co nie jest AI, utrudnia egzekwowanie zasad etycznego i odpowiedzialnego stosowania sztucznej inteligencji, a także utrudnia konsumentom rozpoznanie, które treści zostały stworzone przez AI i jakie środki ostrożności należy przy ich użyciu zachować. Wraz z pojawieniem się nowych regulacji, takich jak unijny Akt o Sztucznej Inteligencji (EU AI Act), jeszcze ważniejsze staje się właściwe oznaczanie elementów wykorzystujących lub generowanych przez AI. Wymaga to jednak ustandaryzowanej definicji, która pomoże firmom i użytkownikom zidentyfikować, czego używają — lub co zostało wygenerowane przez AI — i traktować to w sposób odpowiedzialny.
Aby EBSCO mogło właściwie identyfikować i oznaczać funkcje produktów, które wykorzystują lub generują treści przy pomocy sztucznej inteligencji, oraz aby móc odpowiednio komunikować to naszym użytkownikom, czerpiemy inspirację z autorytatywnych źródeł wspomnianych powyżej i definiujemy AI w EBSCO jako „ogólny termin odnoszący się do procesów uczenia maszynowego, w których model uczy się na podstawie ogromnych ilości niestrukturyzowanych i nieoznaczonych informacji, zwykle pochodzących z otwartego internetu. W tym procesie model przyswaja właściwości językowe, takie jak sposób konstruowania zdań, to, jak ludzie mówią o różnych tematach oraz jak rozumieć kontekst słów występujących razem, aby przewidywać, jak odpowiedzieć na potrzeby użytkowników wprowadzane w formie zapytań lub poleceń.”
W tej serii omówimy zasady (tenety) dotyczące AI, które stosuje EBSCO — gdzie i w jaki sposób są one wykorzystywane — oraz pokażemy, jak wspieramy odpowiedzialne badania poprzez odpowiedzialne użycie sztucznej inteligencji.
Śledź nas, gdy w nadchodzących miesiącach będziemy zgłębiać każdą z sześciu zasad AI.
- Jakość (Quality): Wykorzystywanie autorytatywnych danych i źródeł w celu oparcia AI na wiarygodnych podstawach oraz weryfikacja przez bibliotekarzy w ramach modelu „human-in-the-loop”.
- Przejrzystość (Transparency): Jasne oznaczanie funkcji AI i stosowanie „wyjaśnialnej AI” (explainable AI), aby wspierać świadome podejmowanie decyzji.
- Alfabetyzacja informacyjna (Information Literacy): Współpraca z bibliotekarzami w celu nauczania, jak korzystać z AI, czym jest odpowiedzialna AI, jak oceniać jej wyniki w badaniach oraz jakie zastosowanie jest akceptowalne.
- Równość (Equality): Oparcie AI na zróżnicowanych i zweryfikowanych danych oraz zapewnienie równego dostępu do treści, niezależnie od doświadczenia badawczego, języka ojczystego czy dziedziny nauki.
- Wartość dla użytkownika końcowego (End-User Value): AI skoncentrowana na użytkowniku — testowana i oceniana przez użytkowników, a doświadczenie użytkownika (UX) projektowane z myślą o odpowiedzialnym i skutecznym wykorzystaniu AI w badaniach.
- Integralność danych (Data Integrity): AI w EBSCO będzie przestrzegać tych samych zasad i procedur dotyczących ochrony danych, prywatności użytkowników oraz praw autorskich, które obowiązują w organizacji.