Przejdź do treści

Ekspertka ds. etyki AI ostrzega: „Im więcej używasz sztucznej inteligencji, tym mniej samodzielnie z czasem będziesz myśleć”

na zdjęciu: zamyślona dziewczyna, pół twarzy ma w cieniu; tekst o sztucznej inteligencji i jej wpływie na ludzi - Hello Zdrowie
/fot. Yana Iskayeva, Getty Images
Podoba Ci
się ten artykuł?

Catharina Doria, jedna ze 100 najbardziej wpływowych kobiet w dziedzinie etyki AI, nie ma wątpliwości: firmy technologiczne działają za szybko, a my wszyscy płacimy za to cenę. ChatGPT pomógł nastolatkom popełnić samobójstwo, algorytmy medyczne nie rozpoznają raka na skórze innej niż biała, a dane zdrowotne są sprzedawane bez kontroli. „Tym, co niszczy techbranża, jest ludzkie życie” – ostrzega ekspertka.

 

Rozmowa z Catharią Dorią to lekcja tego, jak bardzo potrzebujemy ludzi mówiących prawdę o technologii. Brazylijska ekspertka ds. etyki AI, która wyedukowała tysiące osób na temat zagrożeń związanych ze sztuczną inteligencją, mówi wprost i bez ogródek. Nie waha się nazwać działań wielkich firm technologicznych nieodpowiedzialnymi.

– Tym, co niszczy techbranża, jest ludzkie życie. A wszystko przez filozofię „Działaj szybko i niszcz” – powtarza kilkakrotnie podczas naszej rozmowy. I chociaż jej diagnozy są alarmujące, nie zostawia nas bez nadziei. Wierzy w edukację, krytyczne myślenie i ludzką więź. – Musimy się bardziej o siebie troszczyć, bardziej kochać, bardziej wspierać” – mówi. W świecie zdominowanym przez algorytmy to może być najbardziej rewolucyjna rada.

 

Agata Źrałko: Wszyscy mówią o rewolucji AI w medycynie. Algorytmy mają diagnozować lepiej niż lekarze, przewidywać choroby, ratować życie… Czy szybki rozwój technologii, postęp i etykę można w ogóle ze sobą pogodzić?

Catharina Doria: Dobrze byłoby zacząć od odpowiedzi na pytanie, czym w ogóle jest postęp. Dla mnie postęp oznacza tworzenie technologii, które działają dla wszystkich. Technologii dobrze przemyślanych. Technologii, które uwzględniają różnorodność i mają sens dla każdego. Dlatego zamiast zastanawiać się nad tym, jak pogodzić etykę i szybki postęp, powinniśmy raczej pomyśleć, kto ucierpi przez pośpiech. Kogo pominiemy, gdy technologie będą rozwijać się zbyt szybko?

W branży technologicznej, zwłaszcza w Dolinie Krzemowej, ciągle żyje zasada „Move Fast and Break Things” [„Działaj szybko i niszcz” to motto Marka Zuckerberga, którym kierowali się programiści Facebooka. Motto zostało zmienione dopiero w 2014 roku – przyp. red.]. Ale często tym, co niszczy techbranża, jest ludzkie życie. Dlatego nie uważam, że powinniśmy postrzegać etykę jako coś, co spowalnia postęp – ona raczej czyni go zrównoważonym. Tworzenie czegoś na szybko, krzywdzenie ludzi, a potem wracanie i naprawianie wszystkiego na pewno do zrównoważonych nie należy.

Gdy rozwijamy technologie, od samego początku powinniśmy myśleć o solidnych fundamentach. Żeby technologie mogły rosnąć bez konieczności ciągłego cofania się i naprawiania problemów.

Na zdjęciu rozmazane zdjęcie kobiety- HelloZdrowie

W połowie tego roku były dyrektor ds. AI w Google powiedział publicznie, że nie warto już studiować medycyny, bo AI zastąpi tę branżę, zanim ktokolwiek zdąży ukończyć studia. Pamiętam, że bardzo ostro zareagowałaś na te słowa. Nazwałaś je „niedorzecznymi”.

O tak, absolutnie! Określiłam ten komentarz mianem niedorzecznego, bo wierzę, że edukacja jest najważniejszą rzeczą, do której może dążyć człowiek. Na swoim kanale często powtarzam: czytajcie książki, idźcie na uniwersytety, róbcie studia podyplomowe, doktoraty. Realizujcie wszystkie formy nauki, jakie możecie. Krytyczne myślenie to najważniejsze narzędzie w życiu!

Dzisiaj, wraz z rozwojem generatywnej AI, ludzie zaczynają zlecać swoje myślenie na zewnątrz, właśnie do tych technologii. Dlatego kiedy ludzie u władzy mówią: „nie musisz już chodzić do szkoły, bo AI ci pomoże”, jedynymi, którzy na tym zyskają, są właściciele technologii. Im więcej używasz na przykład ChataGPT, tym bardziej go potrzebujesz i z czasem tym więcej za niego płacisz. Bo będziesz go potrzebować, żeby myślał za ciebie.

To niesamowicie nieodpowiedzialne mówić dzieciom czy nastolatkom „nie musicie chodzić do szkoły, bo ChatGPT może wykonać pracę za was”. Powinniśmy promować edukację i wspierać ludzi w nauce, a nie odwrotnie.

Catharina Doria - Hello Zdrowie

Catharina Doria /fot. archiwum prywatne

Skoro już jesteśmy przy tych uproszczonych narracjach – czego Twoim zdaniem AI nie zmieni w pracy lekarza? Czego nigdy nie będzie w stanie przejąć?

Ludzkiego wymiaru. Moja mama jest lekarką i zawsze opowiadała mi historie o tym, jak ważna jest ludzka więź: patrzenie pacjentom w oczy, rozmawianie z nimi, słuchanie ich historii i po prostu bycie człowiekiem. AI nigdy nie będzie w stanie tego zrobić.

Oczywiście, że AI można efektywnie wykorzystać do wspierania lekarzy w wykrywaniu wzorców. Mamy już AI wykrywającą raka. W Brazylii używamy AI do optymalizacji zasobów, łączenia różnych szpitali i pomagania im w zrozumieniu, czy mają niedobór czy nadmiar personelu. To wszystko świetne sposoby wykorzystania AI w systemie opieki zdrowotnej.

Jednak gdy wykorzystujemy sztuczną inteligencję do tak ważnych celów, jak zdrowie i życie ludzkie, technologie muszą być bardzo dobrze uregulowane, zorganizowane i zarządzane. Aby mieć pewność, że nie wyrządzają one nikomu krzywdy.

Na zdjęciu dr Honorata Hafke-Dys - HelloZdrowie

Jakie widzisz zagrożenia związane z wykorzystaniem AI w ochronie zdrowia?

Na przykład przy opracowywaniu urządzeń do skanowania nowotworów skóry z wykorzystaniem AI, nie możemy trenować algorytmów tylko na białej skórze. Musimy trenować je na wszystkich odcieniach skóry, jakie istnieją. W przeciwnym razie algorytm będzie stronniczy. Zdarzały się już przypadki, gdy algorytmy wytrenowane tylko na jednym kolorze skóry nie działały dla wszystkich. Jeśli użyjesz takiego algorytmu na każdym pacjencie, źle zdiagnozujesz osoby o różnych kolorach skóry.

Więc kiedy mówimy o AI w ochronie zdrowia – tak, sztuczna inteligencja może wspierać medycynę. Ale musimy być o wiele bardziej rygorystyczni w sposobie tworzenia tych technologii. Motto „Move Fast and Break Things” nie powinno być stosowane w ogóle, a zwłaszcza w ochronie zdrowia.

Ludzie oddają swoje dane medyczne aplikacjom wykorzystującym AI do analizy wyników badań krwi i sugerowania diagnoz, algorytmom czytającym zdjęcia rentgenowskie i wykrywającym raka, chatbotom oferującym porady medyczne na podstawie objawów. Wpisują informacje o chorobach, lekach, swoim samopoczuciu…

To mnie bardzo niepokoi. W tym temacie nakręciłam m.in. wideo o komercyjnych testach DNA. Wiesz, że kiedy robisz test DNA w komercyjnych firmach w Stanach Zjednoczonych, wyniki nie są chronione przez jakąkolwiek ustawę czy regulacje? Takie dane mogą być później sprzedane różnym firmom, przez co stają się produktem, towarem.

Co dzieje się z takimi danymi później?

Wiele z nich jest wykorzystywanych do tworzenia profili ludzi.

Z czego składa się taki profil danych?

Z informacji złożonych z różnych miejsc. Firmy mogą połączyć wszystkie rozsiane dane i stworzyć mój osobisty profil, by wiedzieć lepiej, kim jestem i co robię. W ten sposób mogą mi sprzedawać więcej rzeczy.

Znany jest przypadek, gdy sieć sklepów Target wywnioskowała, że jedna z ich klientek jest w ciąży, zanim ona sama o tym się dowiedziała. Firma złożyła profil kobiety i przeanalizowała jej wzorce zakupowe.

Sylwia Czubkowska - Hello Zdrowie

Wracając do testów DNA: w USA jest ustawa mówiąca, że firmy zajmujące się ubezpieczeniami zdrowotnymi nie mogą dyskryminować na podstawie DNA. Ale to nie dotyczy… ubezpieczeń na życie.

Zatem czy problem tworzenia profili zdrowotnych będzie się powiększał?

Istnieje ryzyko, że ludzie będą jeszcze częściej rozpowszechniać informacje o swoim zdrowiu. Niestety, jest wiele firm o złych zamiarach, które chcą takie informacje zdobyć, aby następnie wykorzystać na swoją korzyść. To ogromne zagrożenie.

I właśnie dlatego potrzebujemy umiejętności korzystania z mediów. Ludzie muszą wiedzieć, jakie informacje ujawniają i jakie problemy wiążą się z udostępnianiem prywatnych danych.

Jaką mamy ochronę – nawet teraz – przed algorytmami? Z tego, co rozumiem, regulacje mocno pozostają w tyle za technologią.

To zależy od kraju. W Europie macie RODO, w Brazylii mamy LGPD [Lei Geral de Proteção de Dados to brazylijska ustawa o ochronie danych osobowych – przyp. red.], ale przecież nie wszystkie firmy działają zgodnie z prawem. Poza tym mogą się zdarzyć wycieki danych i włamania hakerskie. Więc nawet jeśli mamy przepisy chroniące prywatne dane, prawo musi być odpowiednio egzekwowane.

Osobiście lubię stosować zasadę znaną z RODO, która nazywa się minimalizacją danych – nie podaję o sobie więcej informacji, niż jest potrzebne. Firmy powinny prosić tylko o minimum danych niezbędnych do realizacji celu. Nie mogą wymagać ode mnie dziesiątek informacji, gdy coś, czego potrzebuję, wymaga udostępnienia raptem kilku danych.

Dzisiaj wiemy, jak nasze dane są wykorzystywane, ale za pięć czy siedem lat? Dlatego wszyscy powinniśmy stosować tę zasadę – dzielić się jak najmniejszą liczbą danych. Tylko w ten sposób zachowamy bezpieczeństwo.

Musimy być naprawdę ostrożni.

Z jednej strony AI w medycynie potrzebuje ogromnych ilości danych do nauki, z drugiej – ostrzegamy ludzi przed ich oddawaniem danych. Jak pogodzić te dwie rzeczy?

Musimy zwiększyć transparentność. Naukowcy przeprowadzający badania muszą jasno określać, dlaczego je wykonują i co chcą osiągnąć. Powinni odpowiedzieć na pytania, kto jest właścicielem danych; czy uczestnicy badania mogą się wycofać i zabrać swoje dane.

Gdyby firmy medyczne były bardziej przejrzyste, gdyby jaśniej komunikowały plusy i minusy, gdyby wyjaśniały, jak wszystko działa, ludzie byliby bardziej skłonni dzielić się danymi. Bez przejrzystości tylko rośnie nieufność.

Czy możemy w ogóle rozwijać AI w medycynie bez naruszania prywatności pacjentów?

Myślę, że to możliwe, ale firmy musiałyby bardziej promować przejrzystość i edukację.

Na zdjęciu nastolatek. Tekst o tym, że 14-latek nawiązał miłosną relację z AI

A jeśli algorytm w szpitalu podejmie złą decyzję diagnostyczną i pacjent ucierpi – kto będzie za to odpowiedzialny? Lekarz, który zaufał systemowi? Firma, która stworzyła narzędzie? Szpital, który je wdrożył?

To pytanie za milion dolarów. Nie znamy na nie ostatecznej odpowiedzi. Ale wiemy jedno: algorytm nigdy nie będzie winny. Algorytm nie jest osobą. Nie ma uczuć, nie ma sprawczości i nie można go pociągnąć do odpowiedzialności.

Myślę, że kluczowe jest posiadanie właściwych struktur zarządzania w firmie. Osoba, która koduje algorytm albo tworzy proces uczenia maszynowego, niekoniecznie rozumie kulturę, politykę międzykulturową, wpływ społeczny itp. Dlatego jeśli masz firmę i rozwijasz jakieś narzędzie technologiczne, potrzebujesz zespołu zarządzającego, który przeanalizuje proces rozwoju AI w holistyczny sposób.

Taki zespół powinien przyjrzeć się opracowywanej technologii i przewidzieć, co może pójść nie tak; przewidzieć uprzedzenia, które mogą się pojawić podczas korzystania z narzędzia. A na końcu stworzyć plan działania. Wtedy, gdy coś rzeczywiście pójdzie nie tak, wiadomo, kogo pociągnąć do odpowiedzialności.

Dzisiaj wiele firm tworzy technologie bez odpowiednich zespołów zarządzających albo w ogóle bez zarządzania. To sprawia, że naprawdę trudno jest zrozumieć, kto ponosi odpowiedzialność za błędy algorytmu, również te tragiczne.

16-letni Adam Reine z Kalifornii, który cierpiał z powodu depresji, konsultował się z ChatemGPT – algorytm nie tylko go wysłuchiwał, ale sugerował sposoby popełnienia samobójstwa i pomagał mu napisać list pożegnalny. Kilka godzin przed śmiercią Adam wysłał chatbotowi swój plan, a ChatGPT zasugerował ulepszenia. 29-letnia Sophie Rottenberg z Waszyngtonu rozmawiała z ChatemGPT o swoich myślach samobójczych przez wiele miesięcy, w końcu odebrała sobie życie. Jak mogło w ogóle do tego dojść?

Prawdopodobnie nie było wystarczająco silnych zabezpieczeń, żeby tym sytuacjom zapobiec. ChatGPT to generatywna sztuczna inteligencja – model, który generuje treści, ale nie myśli. Nie ma osądu. To ludzie, którzy go stworzyli, decydowali, co ChatGPT może, a czego nie może robić.

Te przypadki wstrząsnęły opinią publiczną. Dopiero we wrześniu tego roku – po tym, jak tragedie wyszły na jaw – OpenAI wprowadził etyczne zmiany do regulacji ChatGPT.

OpenAI bronił się, że ChatGPT ma odpowiednie zabezpieczenia, ale im dłużej trwa rozmowa z chatbotem, tym słabsze stają się te bariery. Mamy więc technologię, która wymaga wprowadzenia wielu zasad, żeby działała bezpiecznie.

Nastolatek siedzi na łóżku z telefonem w ręku

Czy to nie dowodzi, że firmy technologiczne reagują tylko wtedy, gdy zdarzą się tragedie?

Wielkie firmy technologiczne myślą o bezpieczeństwie z wyprzedzeniem, mają całe zespoły poświęcone temu zagadnieniu, ale w branży ciągle panuje silny nacisk na zasadę „Move Fast and Break Things”. Wiele konsekwencji działania AI, które widzimy dzisiaj, wynika właśnie z tej mentalności.

Firmy technologiczne tworzą produkty naprawdę szybko. Zapewne nie uważają, że konsekwencje będą aż tak poważne. Albo wierzą, że korzyści przewyższają szkody.

Ludzie szukają pomocy tam, gdzie jest dostępna. W końcu chatbot jest darmowy, dostępny nawet o trzeciej w nocy, nie osądza. Jak powinniśmy reagować na fakt, że coraz więcej osób w kryzysie psychicznym zwraca się do AI zamiast do ludzi?

Żyjemy w zatomizowanym społeczeństwie. Nie widzimy wartości w empatii, więzi, wspólnocie i wzajemnym wsparciu. A naprawdę ogromnie nam tego brakuje. Musimy się bardziej o siebie troszczyć, bardziej kochać, bardziej wspierać i bardziej pomagać. Po prostu musimy.

Co podpowiedziałabyś młodemu lekarzowi, który dopiero zaczyna karierę w świecie, gdzie AI będzie coraz bardziej obecna? Czego powinien się uczyć, na co powinien uważać?

Przestrzegłabym, żeby nie pozwalał dużym modelom językowym myśleć za siebie.

Im więcej używasz sztucznej inteligencji do myślenia, diagnozowania czy generowania pomysłów, tym mniej samodzielnie z czasem będziesz myśleć. A im częściej myślisz krytycznie, piszesz, łączysz fakty, tym lepiej ci to wychodzi.

Widzimy to już w tylu różnych dziedzinach: marketingu, komunikacji, tworzeniu treści, matematyce, polityce… Chociaż używanie LLM [Large Language Models, czyli dużych modeli językowych – przyp. red.] wydaje się szybsze i łatwiejsze, warto oprzeć się tej pokusie. Dlatego jeśli młodzi lekarze zaczną polegać na AI, będę powtarzać do znudzenia: proszę, nie róbcie tego. Używajcie swoich mózgów, rozwijajcie swoją pamięć i nie zlecajcie myślenia zewnętrznym narzędziom.

A co z narzędziami AI, których szpitale używają już dzisiaj? Co lekarze powinni z nimi zrobić?

Gorąco polecam pójść do administratora czy swojego szefa i zapytać: „Co zrobiliśmy, żeby upewnić się, że to narzędzie nie jest stronnicze?”. Oraz „co zrobiliśmy, żeby mieć pewność, że to narzędzie jest odpowiednio zarządzane?”.

Pracujesz z firmami jako konsultantka ds. etyki AI, wyedukowałaś tysiące ludzi na temat AI. Czy czasem myślisz, że my wszyscy – dziennikarze i eksperci – zawiedliśmy?

Wcale nie ponieśliśmy porażki. Warto zadać sobie pytanie – tym z nas, którzy dążą do dobra społecznego – w jaki sposób możemy zwiększyć poziom wiedzy i poprawić jakość naszej pracy. Uważam, że wiedza powinna być współdzielona, dostępna dla wszystkich. W końcu etyka AI, odpowiedzialność AI, umiejętność korzystania z AI i krytyczne myślenie leżą w interesie nas wszystkich.

 


Catharina Doria – ekspertka ds. etyki sztucznej inteligencji, konsultantka i twórczyni treści, posiadająca ponad 270 000 obserwujących w mediach społecznościowych. W 2023 r. została uznana za jedną ze 100 najbardziej błyskotliwych kobiet w dziedzinie etyki sztucznej inteligencji (Women in AI Ethics™). Uczy ludzi na całym świecie, jak chronić się przed zagrożeniami związanymi z rozwojem sztucznej inteligencji. Mieszka w São Paulo.

Zobacz także

Podoba Ci się ten artykuł?

Powiązane tematy:

Podoba Ci
się ten artykuł?