Dr Eng Lim Goh: sztuczna inteligencja ma swoje limity. Podstawowym jest energia
Sztuczna inteligencja odbierze ludziom pracę! Czy jesteśmy na skraju buntu maszyn? Tego typu nagłówki pojawiają się w mediach regularnie, wieszcząc niechybnie początek ery Matriksa i Terminatora. Czy algorytmy sztucznej inteligencji naprawdę zagrażają ludzkości, czy może stanowią trampolinę do niebywałego rozwoju? National Geographic Polska rozmawia z dr. Eng Lim Gohem, projektantem superkomputera NASA.
W tym artykule:
- Między ekspertem a SI
- Jak się uczy sztuczną inteligencję?
- Nauczyć komputer mówić
- Podstawą jest energia
- SI kwantowa
Sztuczna inteligencja (SI) jest od ubiegłego roku jednym z głównych tematów debaty publicznej. Po uruchomieniu modelu językowego ChatGPT i szerokim dostępie do innych modeli opartych na uczeniu maszynowym, część odbiorców wieściła rychły upadek ludzkości. W tym samym czasie inne grupy przekonywały, że jest to kolejny stopień rozwoju. Pozwoli on nam sięgać dalej, rozwijać się szybciej i przyniesie gwałtowne, pożądane zmiany w wielu różnych dziedzinach życia.
Dr Eng Lim Goh to wiceprezes ds. sztucznej inteligencji i danych w Hewlett Packard Enterprise i światowej sławy ekspert AI, który m.in. projektował HPE Spaceborne Computer dla NASA. Uważa on, że nie dojdzie do niekontrolowanego rozwoju systemów SI. Głównie ze względu na zasoby, jakich to wymaga.
– Obecnie istnieją różne interpretacje tego, czym jest, a czym nie jest sztuczna inteligencja. Powiedzmy, że w największym uproszczeniu sztuczna inteligencja oznacza maszynę wyróżniającą się konkretnymi zdolnościami i inteligencją, prawda? – mówi dr Goh w rozmowie z National Geographic Poland.
Sztuczna inteligencja tworzy nowe materiały? Naukowcy mają wątpliwości, czy to możliwe
Narzędzie zbudowane przez Google DeepMind przewidziało możliwość zaistnienia prawie 400 tysięcy stabilnych substancji. A autonomiczny system A-Lab opracowuje receptury nowych materiałów. W ...Wyjaśnia, że dawniej rolę programów SI pełniły tzw. systemy ekspertowe. Były tworzone w oparciu o informacje przekazane przez specjalistów w danej dziedzinie, przez wiele lat zdobywających swoją wiedzę.
Między ekspertem a SI
– Powiedzmy, że takim ekspertem był inżynier z 30-letnim doświadczeniem pracy w elektrowni. W trakcie tych 30 lat pracy gromadził przeróżne doświadczenia, zauważał i rozwiązywał problemy. Im większe miał doświadczenie, tym szybciej i lepiej był w stanie przewidzieć, kiedy i jaki system elektrowni może zawieść. Ta wiedza była przenoszona do algorytmu, którego zadaniem było ułatwienie innym podejmowanie decyzji i rozwiązywanie problemów w tej konkretnej dziedzinie. Innymi słowy, w systemie ekspertowym konieczne jest posiadanie eksperta i zaprogramowanie kolejnego eksperta – tłumaczy dr Goh.
Ten proces opiera się na ustalaniu kolejnych kroków postępowania w danej sytuacji. Jeśli zawiedzie dany system, musisz wykonać takie i takie działanie. a Jeśli zawiedzie inny, musisz użyć innej metody. Digitalizuje się know how dotyczące danego zagadnienia.
Jak się uczy sztuczną inteligencję?
– W taki sposób wyglądały pierwsze algorytmy SI. Wkładaliśmy mnóstwo pracy w budowanie systemu ekspertowego i mieliśmy nadzieję, że będzie „inteligentny” – komentuje naukowiec.
Jednak ten system był bardzo wymagający i potrzebował nieustannych aktualizacji. Poza tym był skomplikowany w obsłudze. Lepszym podejściem do sztucznej inteligencji okazały się tzw. sieci neuronowe. Są one w stanie obsłużyć wiele danych wejściowych i można je w dość prosty sposób trenować na bazach danych.
– Tutaj nie potrzebujemy eksperta. Po prostu przekazujemy wszystkie zebrane informacje sieci neuronowej, a ta z czasem zaczyna się samodzielnie tworzyć do punktu, w którym jest w stanie dość precyzyjnie przewidywać kolejne kroki – wyjaśnia dr Goh.
Nauczyć komputer mówić
Do czasu pojawienia się ChatGPT wydawało się, że modele językowe są czymś nie do osiągnięcia. Że jest to ta dziedzina, z którą algorytmy SI sobie nie poradzą.
– Używanie przez maszyny języka w sposób podobny do tego, jak robią to ludzie, stało się możliwe dzięki korzystaniu z transformerów. To one stały się sposobem na architekturę sieci neuronowych. Transformery umożliwiły tworzenie dużych modeli językowych. Już wiemy, że można „rozmawiać z komputerem”, ale wciąż jesteśmy na początku wymyślania, jak to zrobić lepiej. Bo w ostatnich czasach polegało to na budowaniu coraz większych sieci neuronowych. Ale to podejście ma swoje limity i to takie, które już praktycznie osiągnęliśmy – tłumaczy dr Goh.
Jednym z kierunków rozwoju SI jest budowanie coraz większych sieci neuronowych. I sprawdzanie, do jakiej wielkości możemy je rozbudować, by uzyskać kolejny przełom w dziedzinie sztucznej inteligencji.
Podstawą jest energia
Ale każda taka sieć wymaga energii elektrycznej. Oznacza to ogromne i wciąż rosnące zapotrzebowania na prąd.
– Załóżmy, że mówimy o 100 trylionach trylionów połączeń w sieci neuronowej. Koszt wytrenowania takiego modelu mógłby wynieść nawet 100 miliardów dolarów. Ale koszt to jedna kwestia. Kolejną są dane. Trzeba sobie zadać pytanie, czy mamy wystarczająco dużo odpowiednich danych, by wytrenować model. A co z energią elektryczną? Im potężniejsze komputery, im większe sieci neuronowe, tym więcej energii wymagają – wyjaśnia specjalista.
Dodaje, że skokowy postęp w tym obszarze byłby hipotetycznie możliwy, gdyby nagle na rynku pojawiła się firma z rocznym finansowaniem rzędu biliona dolarów. I z własną elektrownią, bo w tej chwili to właśnie pieniądze i dostęp do energii stanowią największą blokadę dla rozwoju systemów SI.
SI kwantowa
A co, gdy do użycia wejdą komputery kwantowe? – System komputerowy musi być wydajny, produktywny i szybki, prawda? Jako HPE badamy możliwości i rozwój komputerów kwantowych. Współpracujemy również z kilkoma firmami rozwijającymi technologie kwantowe. To z pewnością technologia, która wymaga jeszcze czasu. Uzyskanie programowalnego i działającego komputera kwantowego nie jest łatwe. Obecnie programowanie komputera kwantowego jest zdecydowanie trudniejsze niż programowanie na poziomie kodu maszynowego dla komputerów cyfrowych. Być może za kilkanaście, może 20 lat doczekamy się przełomu, który pozwoli na produkcję rozsądnie programowalnego komputera kwantowego. Ale w tym wypadku również wystąpi problem pieniędzy i energii – twierdzi dr Goh.
Czy rozwiązaniem będzie budowa nowych, potężnych elektrowni? Jak planowana przez Europejską Agencję Kosmiczną elektrownia orbitalna Solaris? A może limit, jaki nakłada na nas zapotrzebowanie energetyczne coraz bardziej rozbudowanych sieci neuronowych wcale nie jest niczym złym? W końcu zawsze można po prostu odłączyć wtyczkę.
Dr Eng Lim Goh to wiceprezes Hewlett Packard Enterprise ds. sztucznej inteligencji i danych, światowej sławy ekspert SI. Projektował HPE Spaceborne Computer dla NASA, nadzorował wdrażanie sztucznej inteligencji w wyścigach Formuły 1. Współtworzył bota – mistrza pokerowego, współprojektował architektury systemów do symulacji mózgu ssaków.