Blog > Historia prac nad sztuczna inteligencja. Kiedy rozpoczęto pracę nad sieciami neuronowymi?

Historia prac nad sztuczna inteligencja. Kiedy rozpoczęto pracę nad sieciami neuronowymi?

Data: 2025.01.31 | Kategoria: Blog | Tagi: AI , sztuczna inteligencja , SI , sieci neuronowe , glebokie uczenie , deep learning , LLM , test Turinga , chatGPT , Deepseek

Prace nad sieciami neuronowymi zaczęły się w latach 40. XX wieku od modeli teoretycznych, ale ich prawdziwy rozwój nastąpił dopiero w ostatnich dwóch dekadach dzięki postępowi w mocy obliczeniowejdużym zbiorom danych i algorytmom takim jak backpropagation. Dziś sieci neuronowe są sercem rewolucji AI, napędzając wszystko od autonomicznych samochodów po zaawansowane systemy językowe.

KLUCZOWE MOMENTY I PRZEŁOMY W PRACACH NAD SZTUCZNĄ INTELIGENCJĄ:


1. Wczesne korzenie (lata 40.–50. XX wieku)

  • 1943: Model McCullocha-Pittsa
    Neurobiolog Warren McCulloch i matematyk Walter Pitts stworzyli pierwszy matematyczny model neuronu, inspirowany biologicznym układem nerwowym. Był to fundament teoretyczny dla sieci neuronowych.

    • Neuron działał na zasadzie binarnej: aktywował się, gdy suma sygnałów wejściowych przekroczyła próg.

  • 1949: Reguła Hebba
    Donald Hebb zaproponował teorię uczenia się opartą na wzmacnianiu połączeń między neuronami ("komórki, które aktywują się razem, łączą się razem").

  • 1950: Test Turinga
    Alan Turing w pracy "Computing Machinery and Intelligence" zasugerował, że maszyny mogą naśladować ludzką inteligencję. Zaproponował test Turinga jako sposób na jej ocenę.


2. Narodziny AI i pierwszych sieci neuronowych (lata 50.–60.)

  • 1956: Dartmouth Conference
    Termin "sztuczna inteligencja" został oficjalnie użyty podczas konferencji w Dartmouth College, zorganizowanej przez Johna McCarthy’ego, Marvina Minsky’ego i innych. To uznaje się za początek AI jako dziedziny naukowej.

  • 1957: Perceptron Rosenblatta
    Frank Rosenblatt stworzył perceptron – pierwszą sieć neuronową zdolną do uczenia się prostych zadań klasyfikacji (np. rozpoznawania kształtów).

    • Perceptron wykorzystywał regułę delta do aktualizacji wag.

    • W 1958 roku zademonstrowano Mark I Perceptron – maszynę analogową do rozpoznawania obrazów.

  • 1969: Krytyka perceptronu
    Marvin Minsky i Seymour Papert w książce "Perceptrons" udowodnili, że jednowarstwowe perceptrony nie radzą sobie z problemami nieliniowymi (np. funkcja XOR). To doprowadziło do pierwszej zimy AI – spadku finansowania badań nad sieciami neuronowymi.


3. AI zimna wojna i odrodzenie sieci neuronowych (lata 70.–80.)

  • Lata 70.: Dominacja systemów ekspertowych
    W tym czasie dominowały symboliczne podejścia do AI (systemy ekspertowe, logika rozmyta), a sieci neuronowe zostały zmarginalizowane.

  • 1974: Algorytm backpropagation
    Paul Werbos zaproponował propagację wsteczną (backpropagation) – kluczowy algorytm treningu wielowarstwowych sieci neuronowych. Jednak jego praca nie została początkowo doceniona.

  • 1982: Sieci Hopfielda
    John Hopfield zaprojektował sieć Hopfielda, która potrafiła przechowywać i odtwarzać wzorce (inspiracja dla pamięci asocjacyjnej).

  • 1986: Przełom w backpropagation
    David Rumelhart, Geoffrey Hinton i Ronald Williams udoskonalili backpropagation, co umożliwiło trening głębszych sieci. To odrodziło zainteresowanie sieciami neuronowymi.

  • 1989: Uczenie głębokie
    Yann LeCun wykorzystał konwolucyjne sieci neuronowe (CNN) do rozpoznawania cyfr pisanych (system LeNet). Był to kamień milowy w głębokim uczeniu.


4. Druga zima AI i rewolucja danych (lata 90.–2000)

  • Lata 90.: Kryzys finansowania
    Ponowne rozczarowanie wynikami AI (ograniczenia mocy obliczeniowej i danych) – druga zima AI.

  • 1997: LSTM
    Sepp Hochreiter i Jürgen Schmidhuber opracowali Long Short-Term Memory (LSTM) – rodzaj sieci rekurencyjnej (RNN) do przetwarzania sekwencji.

  • 2006: Głębokie uczenie się
    Geoffrey Hinton, Yoshua Bengio i Yann LeCun opublikowali przełomowe prace, udowadniając, że głębokie sieci neuronowe można skutecznie trenować, inicjując erę deep learningu.


5. Era głębokiego uczenia (od 2010 roku)

  • 2012: AlexNet
    Zespół Hintona wygrał konkurs ImageNet z siecią AlexNet (CNN), osiągając znacznie lepsze wyniki niż tradycyjne metody. To zapoczątkowało boom na głębokie uczenie.

  • 2014: Generative Adversarial Networks (GAN)
    Ian Goodfellow wprowadził GAN-y – sieci generatywne zdolne do tworzenia realistycznych obrazów.

  • 2017: Transformers
    Praca "Attention Is All You Need" Vaswaniego i innych wprowadziła architekturę Transformer, która zrewolucjonizowała NLP (modele jak BERT, GPT).

  • 2020–2023: Wielkoskalowe modele
    Modele językowe jak GPT-3/4PaLM czy DALL-E pokazały możliwości AI w generowaniu tekstu, obrazów i kodu.


6. Współczesne wyzwania i przyszłość

  • Etyka AI: Walka z biasem, dezinformacją (np. deepfake’i) i kontrolą nad AGI (Artificial General Intelligence).

  • Obliczenia kwantowe: Potencjał do przyspieszenia treningu sieci.

  • Neuromorficzne chipy: Sprzęt inspirowany mózgiem (np. projekty Intela i IBM).