karta edukacyjna
Umieść kursor na mnieYay! Odwróć kolejne karty, aby uzyskać więcej informacji
karta edukacyjna
Umieść kursor na mnieYay! Odwróć kolejne karty, aby uzyskać więcej informacji
1940
programowalny komputer cyfrowyBadanie logiki i formalnego rozumowania od starożytności do współczesności doprowadziło bezpośrednio do wynalezienia programowalnego komputera cyfrowego w latach czterdziestych XX wieku, maszyny opartej na abstrakcyjnej istocie rozumowania matematycznego. To urządzenie i stojące za nim idee zainspirowały garstkę naukowców do rozpoczęcia poważnych dyskusji na temat możliwości zbudowania elektronicznego mózgu.
lato 1956 r.
Dziedzina badań nad sztuczną inteligencjąDziedzina badań nad sztuczną inteligencją powstała podczas warsztatów zorganizowanych na kampusie Dartmouth College latem 1956 r. Uczestnicy warsztatów stali się liderami badań nad sztuczną inteligencją na dziesięciolecia. Wielu z nich przewidywało, że maszyny tak inteligentne jak ludzie będą istnieć w ciągu jednego pokolenia. Rząd USA przeznaczył miliony dolarów na urzeczywistnienie tej wizji.
1956-1974
wczesne sukcesyProgramy opracowane w latach po warsztatach w Dartmouth były dla większości ludzi po prostu „zdumiewające”: komputery rozwiązywały problemy słowne z algebry, udowadniały twierdzenia z geometrii i uczyły się mówić po angielsku. Niewielu w tamtym czasie uwierzyłoby, że takie „inteligentne” zachowanie maszyn jest w ogóle możliwe. Naukowcy wyrażali intensywny optymizm prywatnie i w prasie, przewidując, że w pełni inteligentna maszyna zostanie zbudowana w mniej niż 20 lat. Agencje rządowe, takie jak Defense Advanced Research Projects Agency (DARPA, wówczas znana jako „ARPA”), wylewały pieniądze na tę dziedzinę. Laboratoria sztucznej inteligencji powstały na wielu brytyjskich i amerykańskich uniwersytetach w późnych latach 50 i wczesnych 60
1974-1980
Pierwsza zima AIW latach 70. sztuczna inteligencja była przedmiotem krytyki i niepowodzeń finansowych. Naukowcy zajmujący się sztuczną inteligencją nie docenili trudności problemów, przed którymi stanęli. Ich ogromny optymizm rozbudził oczekiwania opinii publicznej do niebotycznych rozmiarów, a gdy obiecane wyniki nie zostały osiągnięte, fundusze przeznaczone na sztuczną inteligencję zostały poważnie ograniczone. Brak sukcesów wskazywał, że techniki stosowane przez badaczy AI w tamtym czasie były niewystarczające do osiągnięcia ich celów.
1980-1987
BoomW latach 80. XX wieku korporacje na całym świecie przyjęły formę programu sztucznej inteligencji zwaną „systemami eksperckimi”, a wiedza stała się głównym przedmiotem badań nad sztuczną inteligencją. Rządy zapewniły znaczne fundusze, takie jak japoński projekt komputerowy piątej generacji i amerykańska inicjatywa w zakresie obliczeń strategicznych. „Ogólnie rzecz biorąc, przemysł AI rozkwitł z kilku milionów dolarów w 1980 roku do miliardów dolarów w 1988 roku”.
1987-2005
Bust: druga zima AIFascynacja społeczności biznesowej sztuczną inteligencją rosła i spadała w latach 80 w klasyczny sposób bańki ekonomicznej. Ponieważ dziesiątki firm upadły, w świecie biznesu panowało przekonanie, że technologia ta nie jest opłacalna. Uszkodzenie reputacji sztucznej inteligencji trwało przez cały XXI wiek. Wewnątrz dziedziny nie było zgody co do przyczyn niepowodzenia AI w spełnieniu marzenia o inteligencji na poziomie ludzkim, które zawładnęło wyobraźnią świata w latach sześćdziesiątych XX wieku. Wszystkie te czynniki razem przyczyniły się do rozdrobnienia AI na konkurujące ze sobą poddziedziny skupione na konkretnych problemach lub podejściach, czasami nawet pod nowymi nazwami, które ukrywały nadszarpnięty rodowód „sztucznej inteligencji”.
1987-2005
Bust: druga zima AI (za kulisami)W ciągu tych 20 lat sztuczna inteligencja konsekwentnie dostarczała działające rozwiązania konkretnych, pojedynczych problemów. Pod koniec lat dziewięćdziesiątych XX wieku była ona wykorzystywana w całej branży technologicznej, choć nieco zakulisowo. Sukces wynikał z rosnącej mocy komputerów, współpracy z innymi dziedzinami (takimi jak optymalizacja matematyczna i statystyka) oraz stosowania najwyższych standardów odpowiedzialności naukowej. Do 2000 roku sztuczna inteligencja osiągnęła niektóre ze swoich najstarszych celów. Dziedzina ta była zarówno bardziej ostrożna, jak i bardziej skuteczna niż kiedykolwiek wcześniej.
2005-2017
Big data, głębokie uczenieW pierwszych dekadach XXI wieku dostęp do dużych ilości danych (znanych jako „big data”), tańsze i szybsze komputery oraz zaawansowane techniki uczenia maszynowego zostały z powodzeniem zastosowane do wielu problemów w całej gospodarce. Punktem zwrotnym był sukces głębokiego uczenia około 2012 roku, który poprawił wydajność uczenia maszynowego w wielu zadaniach, w tym w przetwarzaniu obrazów i wideo, analizie tekstu i rozpoznawaniu mowy. Inwestycje w sztuczną inteligencję rosły wraz z jej możliwościami, a do 2016 r. rynek produktów, sprzętu i oprogramowania związanych ze sztuczną inteligencją osiągnął wartość ponad 8 miliardów dolarów, a New York Times poinformował, że zainteresowanie sztuczną inteligencją osiągnęło „szał”.
2005-2017
AGIIn 2002, Ben Goertzel and others became concerned that AI had largely abandoned its original goal of producing versatile, fully intelligent machines, and argued in favor of more direct research into artificial general intelligence. By the mid-2010s several companies and institutions had been founded to pursue Artificial General Intelligence (AGI), such as OpenAI and Google's DeepMind. During the same period, new insights into superintelligence raised concerns that AI was an existential threat. The risks and unintended consequences of AI technology became an area of serious academic research after 2016.
2020-present
Duże modele językowe, boom AIBoom na sztuczną inteligencję rozpoczął się wraz z początkowym rozwojem kluczowych architektur i algorytmów, takich jak architektura transformatorowa w 2017 r., co doprowadziło do skalowania i rozwoju dużych modeli językowych wykazujących podobne do ludzkich cechy wiedzy, uwagi i kreatywności. Nowa era AI rozpoczęła się około 2020-2023 roku, wraz z publicznym wydaniem skalowanych dużych modeli językowych (LLM), takich jak ChatGPT.
Okazuje się, że nie jest to wcale nowa technologia. Aż dziw bierze, że po tylu latach rozwoju doczekaliśmy się niezbyt udanych chatbotów i to jest tego najlepszy przykład.
W rzeczywistości istnieje wiele zastosowań dla sztucznej inteligencji. (Swoją drogą, nie masz dość tego minimalistycznego designu? Co powiesz na coś bardziej dynamicznego?).