Technologia

AI ma przed sobą świetlaną przyszłość, ale musimy współpracować, aby zapewnić właściwy kierunek rozwoju

AI ma przed sobą świetlaną przyszłość, ale musimy współpracować, aby zapewnić właściwy kierunek rozwoju

Pod względem etyki i zrównoważonego rozwoju szybki rozwój sztucznej inteligencji wymaga silnych wytycznych. Obecne podejście polegające na konkurowaniu za wszelką cenę, które stawia firmy przeciwko sobie w wyścigu o kolejny duży kamień milowy w dziedzinie sztucznej inteligencji, raczej hamuje postęp niż go wspiera. Przełomowe udostępnienie ChatGPT przez OpenAI oraz szybka reakcja Bing Microsoftu i Bard Google stworzyły swoisty wyścig zbrojeń AI, który sprowokował pojawienie się wielu katastroficznych przepowiedni wśród czołowych technologów, decydentów i opinii publicznej.

Liderzy opinii w dziedzinie sztucznej inteligencji coraz częściej biją na alarm, wzywając do spowolnienia jej rozwoju w celu przerwania tego toksycznego cyklu. Ostatnio niektóre z najbardziej znanych głosów w branży wezwały do natychmiastowej sześciomiesięcznej przerwy w szkoleniu systemów AI, a nawet ostrzegły, że niekontrolowany postęp AI może spowodować zagrożenie wyginięcia człowieka.

W Nokii wierzymy, że sztuczna inteligencja może być pozytywną siłą dla społeczeństwa wtedy i tylko wtedy, gdy jest rozwijana i wdrażana we współpracy i w sposób etyczny. Oznacza to budowanie społeczności, która ma wspólne wartości i rozmawia ze sobą o technologiach, które niosą ze sobą daleko idące konsekwencje. Uwolniłoby to cały pozytywny potencjał sztucznej inteligencji, taki jak demokratyzacja dostępu do opieki zdrowotnej i edukacji, usprawnienie operacji przemysłowych, odblokowanie wydajności sieci, ochrona zasobów środowiskowych i stworzenie ogólnie bardziej sprawiedliwego, zrównoważonego i równego społeczeństwa.

Wierzymy, że odpowiedzialna sztuczna inteligencja opiera się na sześciu podstawowych filarach. Ale aby to osiągnąć, potrzebujemy współpracy, która przybiera formę wspólnoty, i regulacji.

Czemu nie możemy być przyjaciółmi?

Zanim udostępnimy tak potężne technologie, musimy się zjednoczyć jako branża. Zaczyna się to od współpracy podmiotów branżowych w celu zapewnienia odpowiedzialnego tworzenia takich systemów. Dzieląc się wiedzą i najlepszymi praktykami, możemy tworzyć systemy sztucznej inteligencji, które są niezawodne, godne zaufania i obiektywne. 

Rozwój tego typu technologii nie jest łatwym zadaniem i wymaga znacznych inwestycji w badania i rozwój. Właśnie dlatego łączenie zasobów i wiedzy jest niezbędne, aby napędzać innowacje i przybliżać nas do naszych celów. Pokazując nasze zaangażowanie w etyczne i społecznie odpowiedzialne praktyki, możemy zdobyć zaufanie szerszej opinii publicznej. Ma to kluczowe znaczenie w dzisiejszych czasach, w których obawy dotyczące wykorzystania technologii sztucznej inteligencji są głębokie.

Aby to zrobić, musimy przyjąć podejście świadomej odpowiedzialności. Wiąże się to z identyfikacją i ograniczaniem ryzyka, zanim stanie się ono problematyczne. Przykładowo, podczas opracowywania i wdrażania technologii sztucznej inteligencji, zasady odpowiedzialnego projektowania, takie jak przejrzystość, odpowiedzialność biznesowa i inkluzywność, mogą zapobiec tworzeniu stronniczych lub dyskryminujących systemów. Nadając priorytet prywatności użytkowników i bezpieczeństwu danych, możemy projektować systemy, które ograniczają gromadzenie i wykorzystywanie danych osobowych do tego, co jest konieczne i właściwe. Musimy nalegać na taką odpowiedzialność w pierwszej kolejności, a nie w ostateczności, abyśmy nie byli zmuszeni do późniejszego gaszenia pożarów, które stworzyliśmy. Te fundamentalne zasady znajdują się w centrum badań Nokia Bell Labs.

Dla przykładu, przeanalizowaliśmy ograniczenia dominującej metody list kontrolnych w celu utrzymania wytycznych dotyczących etyki w rozwoju sztucznej inteligencji. Zamiast niej opowiadamy się za bardziej interaktywnym i przyjaznym dla użytkownika podejściem do kart podpowiedzi, które wykorzystuje system o nazwie AI Design. Innowacja ta została opracowana wspólnie przez zróżnicowaną grupę ekspertów, w tym twórców sztucznej inteligencji, inżynierów, organy regulacyjne, liderów biznesu i specjalistów ds. standaryzacji. Usprawnia ona proces rozwoju etycznej sztucznej inteligencji, dostarczając programistom szereg najlepszych praktyk i technik oraz skłaniając ich do myślenia z wyobraźnią i rozważania sprzecznych wymagań, takich jak sprawiedliwość i prywatność.

Nasi badacze zaprezentowali tę inicjatywę w kwietniu na tegorocznej konferencji Human-Computer Interaction (CHI) w Hamburgu. Współpracując z 12 światowej sławy ekspertami z uniwersytetów i firm takich jak Microsoft, Google, Meta i IBM, poprowadziliśmy przełomową sesję poświęconą odpowiedzialnej sztucznej inteligencji.

Badacze uczestniczyli również w konferencjach, na których analizowano, w jaki sposób etyka kształtuje rozwój sztucznej inteligencji. Członkowie zespołu na innych wydarzeniach poświęconych godnej zaufania i odpowiedzialnej sztucznej inteligencji, zaprezentowali nasze narzędzie do projektowania sztucznej inteligencji, oraz generatywnej SI, badając, w jaki sposób wpływa ono na to, jak tworzymy, projektujemy i wchodzimy w interakcje z otaczającym nas światem.

Przedstawiliśmy również artykuł na konferencji ACM na temat sprawiedliwości, odpowiedzialności i przejrzystości o tym, jak badania naukowe były nieproporcjonalnie oparte na analizach przeprowadzonych w krajach zachodnich, wykształconych, uprzemysłowionych, bogatych i demokratycznych, dając wyniki, które mogłyby być nietypowe dla większej populacji świata i mogą nie odzwierciedlać dokładnie ludzkich zachowań.

Aktywnie angażując się w takie sesje z naszymi kolegami na całym świecie, Nokia Bell Labs ma nadzieję na wprowadzenie świadomej odpowiedzialności na pierwszy plan badań nad sztuczną inteligencją.

Regulacje

Istnieją dwa kluczowe aspekty w rozważaniu wyzwań regulacyjnych, przed którymi stoimy. Po pierwsze, konieczne jest, abyśmy sami podjęli inicjatywę regulacyjną, w przeciwnym razie zaprosimy do interwencji rządy i inne organy zarządzające. Poddanie się zewnętrznym regulacjom może utrudnić swobodną ekspresję naszego innowacyjnego ducha i wpłynąć negatywnie na nieograniczone możliwości postępu technologicznego.

Po drugie, musimy stworzyć jednolity front w celu ustanowienia niezachwianych standardów, aby pogodzić nieuniknione starcia między moralnością a technologią. Wspierając środowisko współpracy zakorzenione we wspólnych wartościach i zasadach, możemy poruszać się po zawiłym krajobrazie, w którym kwestie etyczne przecinają się z postępem technologicznym. Tylko dzięki wspólnym wysiłkom możemy zapewnić, że nasze postępy będą harmonijnie współgrać z ponadczasową tkanką naszego zbiorowego sumienia.

Punkt przełomowy?

W bestsellerze Malcolma Gladwella „Punkt przełomowy” (The Tipping Point) z 2000 r. argumentuje on, że aby idea stała się endemiczna, wymaga trzech rzeczy: głęboko połączonej sieci, w której pomysły mogą się skutecznie rozprzestrzeniać, wpływowego "nośnego” przesłania oraz odpowiedniego kontekstu i warunków. Jeśli chodzi o odpowiedzialną sztuczną inteligencję, kontekst jest odpowiedni, a przesłanie, że coś należy zmienić, jest silne. To, czego brakuje, to społeczność interesariuszy AI, która napędzałaby przyjęcie tych pomysłów od podstaw.

W Nokii wierzymy we współpracę z partnerami, klientami i podmiotami branżowymi w celu przyspieszenia innowacji i postępu. Gdyby świat sztucznej inteligencji mógł zjednoczyć się jako społeczność, aby realizować wspólny zestaw odpowiedzialnych zasad sztucznej inteligencji, moglibyśmy rozwijać sztuczną inteligencję bez narażania się na kontrowersyjne pułapki, które obecnie dominują w wiadomościach.

Tylko poprzez utworzenie tej społeczności, współpracę i wypracowanie regulacji możemy przywrócić barierę, której wymaga sztuczna inteligencja.

 

 

Nokia