Data: 2025.01.31 | Kategoria: Blog | Tagi: AI , sztuczna inteligencja , SI , sieci neuronowe , glebokie uczenie , deep learning , LLM , test Turinga , chatGPT , Deepseek
Prace nad sieciami neuronowymi zaczęły się w latach 40. XX wieku od modeli teoretycznych, ale ich prawdziwy rozwój nastąpił dopiero w ostatnich dwóch dekadach dzięki postępowi w mocy obliczeniowej, dużym zbiorom danych i algorytmom takim jak backpropagation. Dziś sieci neuronowe są sercem rewolucji AI, napędzając wszystko od autonomicznych samochodów po zaawansowane systemy językowe.
1943: Model McCullocha-Pittsa
Neurobiolog Warren McCulloch i matematyk Walter Pitts stworzyli pierwszy matematyczny model neuronu, inspirowany biologicznym układem nerwowym. Był to fundament teoretyczny dla sieci neuronowych.
Neuron działał na zasadzie binarnej: aktywował się, gdy suma sygnałów wejściowych przekroczyła próg.
1949: Reguła Hebba
Donald Hebb zaproponował teorię uczenia się opartą na wzmacnianiu połączeń między neuronami ("komórki, które aktywują się razem, łączą się razem").
1950: Test Turinga
Alan Turing w pracy "Computing Machinery and Intelligence" zasugerował, że maszyny mogą naśladować ludzką inteligencję. Zaproponował test Turinga jako sposób na jej ocenę.
1956: Dartmouth Conference
Termin "sztuczna inteligencja" został oficjalnie użyty podczas konferencji w Dartmouth College, zorganizowanej przez Johna McCarthy’ego, Marvina Minsky’ego i innych. To uznaje się za początek AI jako dziedziny naukowej.
1957: Perceptron Rosenblatta
Frank Rosenblatt stworzył perceptron – pierwszą sieć neuronową zdolną do uczenia się prostych zadań klasyfikacji (np. rozpoznawania kształtów).
Perceptron wykorzystywał regułę delta do aktualizacji wag.
W 1958 roku zademonstrowano Mark I Perceptron – maszynę analogową do rozpoznawania obrazów.
1969: Krytyka perceptronu
Marvin Minsky i Seymour Papert w książce "Perceptrons" udowodnili, że jednowarstwowe perceptrony nie radzą sobie z problemami nieliniowymi (np. funkcja XOR). To doprowadziło do pierwszej zimy AI – spadku finansowania badań nad sieciami neuronowymi.
Lata 70.: Dominacja systemów ekspertowych
W tym czasie dominowały symboliczne podejścia do AI (systemy ekspertowe, logika rozmyta), a sieci neuronowe zostały zmarginalizowane.
1974: Algorytm backpropagation
Paul Werbos zaproponował propagację wsteczną (backpropagation) – kluczowy algorytm treningu wielowarstwowych sieci neuronowych. Jednak jego praca nie została początkowo doceniona.
1982: Sieci Hopfielda
John Hopfield zaprojektował sieć Hopfielda, która potrafiła przechowywać i odtwarzać wzorce (inspiracja dla pamięci asocjacyjnej).
1986: Przełom w backpropagation
David Rumelhart, Geoffrey Hinton i Ronald Williams udoskonalili backpropagation, co umożliwiło trening głębszych sieci. To odrodziło zainteresowanie sieciami neuronowymi.
1989: Uczenie głębokie
Yann LeCun wykorzystał konwolucyjne sieci neuronowe (CNN) do rozpoznawania cyfr pisanych (system LeNet). Był to kamień milowy w głębokim uczeniu.
Lata 90.: Kryzys finansowania
Ponowne rozczarowanie wynikami AI (ograniczenia mocy obliczeniowej i danych) – druga zima AI.
1997: LSTM
Sepp Hochreiter i Jürgen Schmidhuber opracowali Long Short-Term Memory (LSTM) – rodzaj sieci rekurencyjnej (RNN) do przetwarzania sekwencji.
2006: Głębokie uczenie się
Geoffrey Hinton, Yoshua Bengio i Yann LeCun opublikowali przełomowe prace, udowadniając, że głębokie sieci neuronowe można skutecznie trenować, inicjując erę deep learningu.
2012: AlexNet
Zespół Hintona wygrał konkurs ImageNet z siecią AlexNet (CNN), osiągając znacznie lepsze wyniki niż tradycyjne metody. To zapoczątkowało boom na głębokie uczenie.
2014: Generative Adversarial Networks (GAN)
Ian Goodfellow wprowadził GAN-y – sieci generatywne zdolne do tworzenia realistycznych obrazów.
2017: Transformers
Praca "Attention Is All You Need" Vaswaniego i innych wprowadziła architekturę Transformer, która zrewolucjonizowała NLP (modele jak BERT, GPT).
2020–2023: Wielkoskalowe modele
Modele językowe jak GPT-3/4, PaLM czy DALL-E pokazały możliwości AI w generowaniu tekstu, obrazów i kodu.
Etyka AI: Walka z biasem, dezinformacją (np. deepfake’i) i kontrolą nad AGI (Artificial General Intelligence).
Obliczenia kwantowe: Potencjał do przyspieszenia treningu sieci.
Neuromorficzne chipy: Sprzęt inspirowany mózgiem (np. projekty Intela i IBM).