Generatywna analiza danych

Podobnie jak dziecko, ta inspirowana mózgiem sztuczna inteligencja potrafi wyjaśnić swoje rozumowanie

Data:

Dzieci są przyrodnikami. Obserwują świat, stawiają hipotezy i je testują. W końcu uczą się wyjaśniać swoje (czasami ujmująco zabawne) rozumowanie.

AI, nie za bardzo. Nie ma wątpliwości, że głębokie uczenie się – rodzaj uczenia maszynowego luźno opartego na mózgu – radykalnie zmienia technologię. Od przewidywania ekstremalnych warunków pogodowych po projektowanie nowych leków lub diagnozowanie śmiertelnych nowotworów – sztuczna inteligencja jest coraz częściej integrowana w granice nauki.

Jednak głębokie uczenie się ma ogromną wadę: algorytmy nie potrafią uzasadnić swoich odpowiedzi. Często nazywany problemem „czarnej skrzynki”, ta nieprzezroczystość utrudnia ich użycie w sytuacjach wysokiego ryzyka, np. w medycynie. Pacjenci chcą wyjaśnień, gdy zdiagnozowano u nich chorobę zmieniającą życie. Na razie algorytmy oparte na głębokim uczeniu się – nawet jeśli charakteryzują się dużą dokładnością diagnostyczną – nie są w stanie dostarczyć takich informacji.

Aby otworzyć czarną skrzynkę, zespół z Southwestern Medical Center Uniwersytetu Teksasu w poszukiwaniu inspiracji wykorzystał ludzki umysł. W badanie in Nauka o przyrodziepołączyli zasady badania sieci mózgowych z bardziej tradycyjnym podejściem do sztucznej inteligencji, które opiera się na możliwych do wyjaśnienia elementach składowych.

Powstała sztuczna inteligencja zachowuje się trochę jak dziecko. Kondensuje różne typy informacji w „centrach”. Każde centrum jest następnie przepisywane na wytyczne dotyczące kodowania, które ludzie mogą przeczytać – CliffsNotes dla programistów, które w prostym języku angielskim wyjaśniają wnioski algorytmu na temat wzorców znalezionych w danych. Może także wygenerować w pełni wykonywalny kod programowania do wypróbowania.

Sztuczna inteligencja, nazywana „głęboką destylacją”, działa jak naukowiec, gdy stawia przed nią różnorodne zadania, takie jak trudne problemy matematyczne i rozpoznawanie obrazów. Szperając w danych, sztuczna inteligencja przekształca je w algorytmy krok po kroku, które mogą przewyższać algorytmy zaprojektowane przez człowieka.

„Głęboka destylacja pozwala odkryć możliwe do uogólnienia zasady, uzupełniające wiedzę człowieka” napisał zespół w swoim artykule.

Cienki papier

Sztuczna inteligencja czasami popełnia błędy w prawdziwym świecie. Weź robotaxis. W ubiegłym roku niektórzy wielokrotnie utknęli w dzielnicy San Francisco, co było uciążliwe dla mieszkańców, ale mimo to chichotali. Co gorsza, pojazdy autonomiczne zablokowały ruch i karetki pogotowia, a w jednym przypadku poważnie skrzywdziły pieszego.

W opiece zdrowotnej i badaniach naukowych zagrożenia mogą być również wysokie.

Jeśli chodzi o domeny wysokiego ryzyka, algorytmy „wymagają niskiej tolerancji na błędy” – zauważa dr Joseph Bakarji z Amerykańskiego Uniwersytetu w Bejrucie, który nie był zaangażowany w badanie: napisał w towarzyszącym artykule na temat pracy.

Barierą dla większości algorytmów głębokiego uczenia się jest ich niewytłumaczalność. Mają strukturę sieci wielowarstwowych. Zbierając tony surowych informacji i otrzymując niezliczone rundy informacji zwrotnych, sieć dostosowuje swoje połączenia, aby ostatecznie uzyskać dokładne odpowiedzi.

Proces ten leży u podstaw głębokiego uczenia się. Problem pojawia się jednak, gdy nie ma wystarczającej ilości danych lub gdy zadanie jest zbyt złożone.

W 2021 roku zespół opracował sztuczną inteligencję to wymagało innego podejścia. Sieć neuronowa, zwana rozumowaniem „symbolicznym”, koduje wyraźne reguły i doświadczenia poprzez obserwację danych.

W porównaniu z głębokim uczeniem się, modele symboliczne są łatwiejsze do interpretacji. Pomyśl o sztucznej inteligencji jak o zestawie klocków Lego, z których każdy reprezentuje inny obiekt lub koncepcję. Można je łączyć w kreatywny sposób, ale połączenia podlegają jasnemu zestawowi zasad.

Sama sztuczna inteligencja jest potężna, ale krucha. Znalezienie elementów składowych w dużej mierze opiera się na wcześniejszej wiedzy. Kiedy staje przed wyzwaniem nowa sytuacja bez wcześniejszego doświadczenia, nie potrafi myśleć nieszablonowo i załamuje się.

I tu wkracza neuronauka. Inspiracją dla zespołu były konektomy, czyli modele współpracy różnych obszarów mózgu. Łącząc tę ​​łączność z symbolicznym rozumowaniem, stworzyli sztuczną inteligencję, która ma solidne i zrozumiałe podstawy, ale może również elastycznie dostosowywać się w obliczu nowych problemów.

W kilku testach model „neurokognitywny” pokonał inne głębokie sieci neuronowe w zadaniach wymagających rozumowania.

Ale czy można sensownie wykorzystać dane i opracować algorytmy, aby je wyjaśnić?

Ludzki dotyk

Jedną z najtrudniejszych części odkryć naukowych jest obserwacja zaszumionych danych i wyciągnięcie wniosków. Proces ten prowadzi do nowych materiałów i leków, głębszego zrozumienia biologii i wglądu w nasz świat fizyczny. Często jest to proces powtarzalny i trwający latami.

Sztuczna inteligencja może przyspieszyć działanie i potencjalnie znaleźć wzorce, które umknęły ludzkiemu umysłowi. Na przykład głębokie uczenie się jest szczególnie przydatne w przewidywaniu struktur białek, ale jego uzasadnienie przewidywania tych struktur jest trudne do zrozumienia.

„Czy możemy zaprojektować algorytmy uczenia się, które przekształcają obserwacje w proste, kompleksowe reguły, tak jak to zwykle robią ludzie?” napisał Bakarji.

W nowym badaniu wykorzystano istniejący model neurokognitywny zespołu i zapewniono mu dodatkowy talent: umiejętność pisania kodu.

Sztuczna inteligencja, zwana głęboką destylacją, grupuje podobne koncepcje, przy czym każdy sztuczny neuron koduje konkretną koncepcję i jej powiązanie z innymi. Na przykład jeden neuron może nauczyć się pojęcia kota i wiedzieć, że różni się od psa. Inny typ radzi sobie ze zmiennością, gdy rzuca mu wyzwanie nowe zdjęcie – powiedzmy tygrys – aby określić, czy bardziej przypomina kota, czy psa.

Te sztuczne neurony są następnie układane w hierarchię. Z każdą warstwą system coraz bardziej różnicuje koncepcje i ostatecznie znajduje rozwiązanie.

Zamiast wymagać, aby sztuczna inteligencja przetwarzała jak najwięcej danych, szkolenie odbywa się krok po kroku — prawie jak uczenie małego dziecka. Dzięki temu możliwa jest ocena rozumowania sztucznej inteligencji, która stopniowo rozwiązuje nowe problemy.

W porównaniu ze standardowym szkoleniem w zakresie sieci neuronowych, sztuczna inteligencja jest oczywista – wyjaśnił Bakarji.

W teście zespół rzucił wyzwanie sztucznej inteligencji za pomocą klasycznej gry wideo – Conway's Game of Life. Gra, stworzona po raz pierwszy w latach 1970. XX wieku, polega na hodowaniu cyfrowej komórki w różne wzory, zgodnie z określonym zestawem zasad (spróbuj sam tutaj). Wyszkolona na danych z symulowanej rozgrywki sztuczna inteligencja była w stanie przewidzieć potencjalne wyniki i przekształcić swoje rozumowanie w czytelne dla człowieka wytyczne lub kod programowania komputerowego.

Sztuczna inteligencja sprawdziła się również w wielu innych zadaniach, takich jak wykrywanie linii na obrazach i rozwiązywanie trudnych problemów matematycznych. W niektórych przypadkach generował kreatywny kod komputerowy, który przewyższał ustalone metody i był w stanie wyjaśnić dlaczego.

Głęboka destylacja może być impulsem dla nauk fizycznych i biologicznych, w których proste części dają początek niezwykle złożonym systemom. Jednym z potencjalnych zastosowań tej metody jest praca jako współnaukowiec dla badaczy dekodujących funkcje DNA. Duża część naszego DNA to „ciemna materia” w tym sensie, że nie wiemy, jaką – jeśli w ogóle – rolę pełni. Wyjaśnialna sztuczna inteligencja mogłaby potencjalnie rozbić sekwencje genetyczne i pomóc genetykom zidentyfikować rzadkie mutacje powodujące wyniszczające choroby dziedziczne.

Poza badaniami zespół jest podekscytowany perspektywą ściślejszej współpracy między sztuczną inteligencją a człowiekiem.

"Podejścia neurosymboliczne mogłoby potencjalnie zapewnić możliwości uczenia maszynowego bardziej zbliżone do ludzkich” – napisał zespół.

Bakarji zgadza się. Nowe badanie wykracza „wykraczając poza postęp techniczny i dotyka wyzwań etycznych i społecznych, przed którymi stoimy dzisiaj”. Wyjaśnialność może działać jako poręcz, pomagając systemom AI w synchronizacji z wartościami ludzkimi podczas szkolenia. W zastosowaniach wysokiego ryzyka, takich jak opieka medyczna, może to budować zaufanie.

Na razie algorytm najlepiej sprawdza się przy rozwiązywaniu problemów, które można rozbić na pojęcia. Nie radzi sobie z ciągłymi danymi, takimi jak strumienie wideo.

To kolejny krok w głębokiej destylacji, napisał Bakarji. „Otworzyłoby to nowe możliwości w obliczeniach naukowych i badaniach teoretycznych”.

Kredytowych Image: 7AV 7AV / Unsplash 

spot_img

Najnowsza inteligencja

spot_img