Dzieci są przyrodnikami. Obserwują świat, stawiają hipotezy i je testują. W końcu uczą się wyjaśniać swoje (czasami ujmująco zabawne) rozumowanie.
AI, nie za bardzo. Nie ma wątpliwości, że głębokie uczenie się – rodzaj uczenia maszynowego luźno opartego na mózgu – radykalnie zmienia technologię. Od przewidywania ekstremalnych warunków pogodowych po projektowanie nowych leków lub diagnozowanie śmiertelnych nowotworów – sztuczna inteligencja jest coraz częściej integrowana w granice nauki.
Jednak głębokie uczenie się ma ogromną wadę: algorytmy nie potrafią uzasadnić swoich odpowiedzi. Często nazywany problemem „czarnej skrzynki”, ta nieprzezroczystość utrudnia ich użycie w sytuacjach wysokiego ryzyka, np. w medycynie. Pacjenci chcą wyjaśnień, gdy zdiagnozowano u nich chorobę zmieniającą życie. Na razie algorytmy oparte na głębokim uczeniu się – nawet jeśli charakteryzują się dużą dokładnością diagnostyczną – nie są w stanie dostarczyć takich informacji.
Aby otworzyć czarną skrzynkę, zespół z Southwestern Medical Center Uniwersytetu Teksasu w poszukiwaniu inspiracji wykorzystał ludzki umysł. W badanie in Nauka o przyrodziepołączyli zasady badania sieci mózgowych z bardziej tradycyjnym podejściem do sztucznej inteligencji, które opiera się na możliwych do wyjaśnienia elementach składowych.
Powstała sztuczna inteligencja zachowuje się trochę jak dziecko. Kondensuje różne typy informacji w „centrach”. Każde centrum jest następnie przepisywane na wytyczne dotyczące kodowania, które ludzie mogą przeczytać – CliffsNotes dla programistów, które w prostym języku angielskim wyjaśniają wnioski algorytmu na temat wzorców znalezionych w danych. Może także wygenerować w pełni wykonywalny kod programowania do wypróbowania.
Sztuczna inteligencja, nazywana „głęboką destylacją”, działa jak naukowiec, gdy stawia przed nią różnorodne zadania, takie jak trudne problemy matematyczne i rozpoznawanie obrazów. Szperając w danych, sztuczna inteligencja przekształca je w algorytmy krok po kroku, które mogą przewyższać algorytmy zaprojektowane przez człowieka.
„Głęboka destylacja pozwala odkryć możliwe do uogólnienia zasady, uzupełniające wiedzę człowieka” napisał zespół w swoim artykule.
Cienki papier
Sztuczna inteligencja czasami popełnia błędy w prawdziwym świecie. Weź robotaxis. W ubiegłym roku niektórzy wielokrotnie utknęli w dzielnicy San Francisco, co było uciążliwe dla mieszkańców, ale mimo to chichotali. Co gorsza, pojazdy autonomiczne zablokowały ruch i karetki pogotowia, a w jednym przypadku poważnie skrzywdziły pieszego.
W opiece zdrowotnej i badaniach naukowych zagrożenia mogą być również wysokie.
Jeśli chodzi o domeny wysokiego ryzyka, algorytmy „wymagają niskiej tolerancji na błędy” – zauważa dr Joseph Bakarji z Amerykańskiego Uniwersytetu w Bejrucie, który nie był zaangażowany w badanie: napisał w towarzyszącym artykule na temat pracy.
Barierą dla większości algorytmów głębokiego uczenia się jest ich niewytłumaczalność. Mają strukturę sieci wielowarstwowych. Zbierając tony surowych informacji i otrzymując niezliczone rundy informacji zwrotnych, sieć dostosowuje swoje połączenia, aby ostatecznie uzyskać dokładne odpowiedzi.
Proces ten leży u podstaw głębokiego uczenia się. Problem pojawia się jednak, gdy nie ma wystarczającej ilości danych lub gdy zadanie jest zbyt złożone.
W 2021 roku zespół opracował sztuczną inteligencję to wymagało innego podejścia. Sieć neuronowa, zwana rozumowaniem „symbolicznym”, koduje wyraźne reguły i doświadczenia poprzez obserwację danych.
W porównaniu z głębokim uczeniem się, modele symboliczne są łatwiejsze do interpretacji. Pomyśl o sztucznej inteligencji jak o zestawie klocków Lego, z których każdy reprezentuje inny obiekt lub koncepcję. Można je łączyć w kreatywny sposób, ale połączenia podlegają jasnemu zestawowi zasad.
Sama sztuczna inteligencja jest potężna, ale krucha. Znalezienie elementów składowych w dużej mierze opiera się na wcześniejszej wiedzy. Kiedy staje przed wyzwaniem nowa sytuacja bez wcześniejszego doświadczenia, nie potrafi myśleć nieszablonowo i załamuje się.
I tu wkracza neuronauka. Inspiracją dla zespołu były konektomy, czyli modele współpracy różnych obszarów mózgu. Łącząc tę łączność z symbolicznym rozumowaniem, stworzyli sztuczną inteligencję, która ma solidne i zrozumiałe podstawy, ale może również elastycznie dostosowywać się w obliczu nowych problemów.
W kilku testach model „neurokognitywny” pokonał inne głębokie sieci neuronowe w zadaniach wymagających rozumowania.
Ale czy można sensownie wykorzystać dane i opracować algorytmy, aby je wyjaśnić?
Ludzki dotyk
Jedną z najtrudniejszych części odkryć naukowych jest obserwacja zaszumionych danych i wyciągnięcie wniosków. Proces ten prowadzi do nowych materiałów i leków, głębszego zrozumienia biologii i wglądu w nasz świat fizyczny. Często jest to proces powtarzalny i trwający latami.
Sztuczna inteligencja może przyspieszyć działanie i potencjalnie znaleźć wzorce, które umknęły ludzkiemu umysłowi. Na przykład głębokie uczenie się jest szczególnie przydatne w przewidywaniu struktur białek, ale jego uzasadnienie przewidywania tych struktur jest trudne do zrozumienia.
„Czy możemy zaprojektować algorytmy uczenia się, które przekształcają obserwacje w proste, kompleksowe reguły, tak jak to zwykle robią ludzie?” napisał Bakarji.
W nowym badaniu wykorzystano istniejący model neurokognitywny zespołu i zapewniono mu dodatkowy talent: umiejętność pisania kodu.
Sztuczna inteligencja, zwana głęboką destylacją, grupuje podobne koncepcje, przy czym każdy sztuczny neuron koduje konkretną koncepcję i jej powiązanie z innymi. Na przykład jeden neuron może nauczyć się pojęcia kota i wiedzieć, że różni się od psa. Inny typ radzi sobie ze zmiennością, gdy rzuca mu wyzwanie nowe zdjęcie – powiedzmy tygrys – aby określić, czy bardziej przypomina kota, czy psa.
Te sztuczne neurony są następnie układane w hierarchię. Z każdą warstwą system coraz bardziej różnicuje koncepcje i ostatecznie znajduje rozwiązanie.
Zamiast wymagać, aby sztuczna inteligencja przetwarzała jak najwięcej danych, szkolenie odbywa się krok po kroku — prawie jak uczenie małego dziecka. Dzięki temu możliwa jest ocena rozumowania sztucznej inteligencji, która stopniowo rozwiązuje nowe problemy.
W porównaniu ze standardowym szkoleniem w zakresie sieci neuronowych, sztuczna inteligencja jest oczywista – wyjaśnił Bakarji.
W teście zespół rzucił wyzwanie sztucznej inteligencji za pomocą klasycznej gry wideo – Conway's Game of Life. Gra, stworzona po raz pierwszy w latach 1970. XX wieku, polega na hodowaniu cyfrowej komórki w różne wzory, zgodnie z określonym zestawem zasad (spróbuj sam tutaj). Wyszkolona na danych z symulowanej rozgrywki sztuczna inteligencja była w stanie przewidzieć potencjalne wyniki i przekształcić swoje rozumowanie w czytelne dla człowieka wytyczne lub kod programowania komputerowego.
Sztuczna inteligencja sprawdziła się również w wielu innych zadaniach, takich jak wykrywanie linii na obrazach i rozwiązywanie trudnych problemów matematycznych. W niektórych przypadkach generował kreatywny kod komputerowy, który przewyższał ustalone metody i był w stanie wyjaśnić dlaczego.
Głęboka destylacja może być impulsem dla nauk fizycznych i biologicznych, w których proste części dają początek niezwykle złożonym systemom. Jednym z potencjalnych zastosowań tej metody jest praca jako współnaukowiec dla badaczy dekodujących funkcje DNA. Duża część naszego DNA to „ciemna materia” w tym sensie, że nie wiemy, jaką – jeśli w ogóle – rolę pełni. Wyjaśnialna sztuczna inteligencja mogłaby potencjalnie rozbić sekwencje genetyczne i pomóc genetykom zidentyfikować rzadkie mutacje powodujące wyniszczające choroby dziedziczne.
Poza badaniami zespół jest podekscytowany perspektywą ściślejszej współpracy między sztuczną inteligencją a człowiekiem.
"Podejścia neurosymboliczne mogłoby potencjalnie zapewnić możliwości uczenia maszynowego bardziej zbliżone do ludzkich” – napisał zespół.
Bakarji zgadza się. Nowe badanie wykracza „wykraczając poza postęp techniczny i dotyka wyzwań etycznych i społecznych, przed którymi stoimy dzisiaj”. Wyjaśnialność może działać jako poręcz, pomagając systemom AI w synchronizacji z wartościami ludzkimi podczas szkolenia. W zastosowaniach wysokiego ryzyka, takich jak opieka medyczna, może to budować zaufanie.
Na razie algorytm najlepiej sprawdza się przy rozwiązywaniu problemów, które można rozbić na pojęcia. Nie radzi sobie z ciągłymi danymi, takimi jak strumienie wideo.
To kolejny krok w głębokiej destylacji, napisał Bakarji. „Otworzyłoby to nowe możliwości w obliczeniach naukowych i badaniach teoretycznych”.
Kredytowych Image: 7AV 7AV / Unsplash
- Dystrybucja treści i PR oparta na SEO. Uzyskaj wzmocnienie już dziś.
- PlatoData.Network Pionowe generatywne AI. Wzmocnij się. Dostęp tutaj.
- PlatoAiStream. Inteligencja Web3. Wiedza wzmocniona. Dostęp tutaj.
- PlatonESG. Węgiel Czysta technologia, Energia, Środowisko, Słoneczny, Gospodarowanie odpadami. Dostęp tutaj.
- Platon Zdrowie. Inteligencja w zakresie biotechnologii i badań klinicznych. Dostęp tutaj.
- Źródło: https://singularityhub.com/2024/02/22/like-a-child-this-brain-inspired-ai-can-explain-its-reasoning/