wtorek, 2 lipca 2024

Potencjalne zagrożenia AI

Potencjalne zagrożenia AI to dość interesujący temat, wiele osób próbuje postawić diagnozę jak jest naprawdę z zagrożeniami - potencjalnymi zagrożeniami ze strony nowych technologii opartych na AI. Między innymi, Bill Gates opublikował artykuł na ten temat (szczegóły w linku). Moje obawy są dość uzasadnione w tej kwestii. Dlaczego? Wydaje mi się, że niektórzy twórcy rozwiązań z obszaru nowych technologii opartych na AI nie są w stanie do końca przewidzieć skutków swojego dzieła. Aby to lepiej wyjaśnić, posłużę się pewnym przykładem.

Twórcy bomby atomowej, konstruując tego typu technologie przewidywali jej potencjalne skutki. Z pewnością, wiele osób napisało na temat potencjalnych skutków użycia tej nowe technologii dużo opracowań i raportów, które miały wyjaśnić jakie zagrożenia niesie ze sobą użycie bomby atomowej. Z pewnością powstało również wiele opracowań, raportów, które starały się przybliżyć problem, czy da się kontrolować potencjalne, niechciane zagrożenia związane z użyciem bomby atomowej.

Niestety, żadne z tych opracowań i raportów nie oddają rzeczywistych skutków, zagrożeń, jakie niesie ze sobą użycie bomby atomowej. O tym wszystkim, mogliśmy się dopiero przekonać po Hiroszimie i Nagasaki. Dopiero wówczas okazało się ile warte są przygotowane raporty o niechcianych zagrożeniach. Wydaje mi się, że tak samo jest ze technologią bazującą na AI - nie wiemy, jakie będę skutki jej użycia, puki po postu nie implementujemy tej technologii i nie uczynimy jej powszechnie dostępnej. Dopiero wówczas okaże się czego nasze raporty o zagrożeniach AI nie zawierają i jak to wygląda w realnym świecie, a nie na papierze.

Jeśli będziemy wykorzystywać Sztuczną Inteligencję w sposób bezrefleksyjny, może okazać się, że stracimy część naszego człowieczeństwa. Nasza wrażliwość ulegnie destrukcji. W społeczeństwach zaczną pojawiać się jednostki, które śmiało można będzie zaliczyć do pokolenia “cyber-idiotów”. Oznacza to, że powoli nasze cywilizacja będzie tracić pewna atrybuty człowieczeństwa. Nie będziemy w stania w przyszłości wyrobić w sobie gustów, zdania na temat tego co nas pociąga w sztuce. 

Idąc dalej, może to oznaczać, że człowiek polegając na “wyborach i sugestiach” sztucznej inteligencji, może zatracić chęć rozwoju emocjonalnego, jaki niewątpliwie towarzyszy w procesie tworzenia sztuki. Tego typu potencjalne zagrożenia są już zauważalne, zwłaszcza w edukacji, gdzie niektórzy uczniowie wolą skorzystać z ChatGPT do napisania wypracowania, niż wyrabiać w sobie zdolności do tworzenia tekstów. Jednym słowem – być może takie rozwiązania, które mają tworzyć nowe wyzwania, będą wpływać dysfunkcyjne na procesy edukacyjne społeczeństw. Oznacza to, że społeczeństwo będzie koncentrować się na “produkcji” biorców, a nie wykształcać liderów i kreatorów.

Czy zatem musimy zmienić nasz stosunek do nowych wyzwań - technologii opartych na AI? Wydaje się, że proces edukacji, jaki może być realizowany w wirtualnej rzeczywistości musi ulec pewnym zmianom, aby uczynić go bardziej efektywnym oraz nauczyć ludzi świadomego posługiwania się tego typu rozwiązaniami. To powinno być jak świadoma, użyteczna jazda samochodem - chcę pokonać dystans, aby dojechać do miejsca A. Wydaje się to dość trudne, skoro sami twórcy tych rozwiązań nie wiedzą dokładnie czego się spodziewać po swoich wynalazkach.

 

Brak komentarzy:

Prześlij komentarz

Time counter

Time counter. How does time actually pass? What interpretation can a time counter have? We already know that our time is directional - it p...