Twój koszyk jest pusty ...
Strona główna » Czym jest AI Sztuczna Inteligencja
Kontakt
  • Yeto Sp. z o.o. Serwis laptopów i komputerów Poznań. Serwis Lenovo, Dell, HP, Asus, Toshiba, Acer, MSI, Sony, Samsung, Xiaomi, Microsoft, Gigabyte, Razer, LG, Huawei, PEAQ. Sklep komputerowy: akcesoria, laptopy, zasilacze, baterie. Ul. Stablewskiego 3 60-224 Poznań (wjazd między garażami) lub od Łukaszewicza 44 (vis a vis Biedronki-parking) Od 07.30 do 19.30, także weekendy.
    NIP: 7792533766
  • E-mail:serwis@yeto.pl
  • Telefon732-900-555
  • Godziny działania sklepuZgłoszenia napraw domowych codziennie 07.30 - 19.30. Przyjęcia sprzętu w zakładzie od 07.30 do 19.30 Darmowy parking przed serwisem lub pod Biedronką na Łukaszewicza 44 vis a vis serwisu. Przyjmujemy także w weekendy.

Czym jest AI Sztuczna Inteligencja

Co to jest sztuczna inteligencja?

Sztuczna inteligencja (AI) to szeroko zakrojona gałąź informatyki zajmująca się budowaniem inteligentnych maszyn zdolnych do wykonywania zadań, które zazwyczaj wymagają ludzkiej inteligencji. Chociaż sztuczna inteligencja jest nauką interdyscyplinarną z wieloma podejściami, postępy w szczególności w uczeniu maszynowym i uczeniu głębokim powodują zmianę paradygmatu w praktycznie każdym sektorze branży technologicznej.

 

Sztuczna inteligencja AI
Sztuczna inteligencja AI

 

 

Sztuczna inteligencja pozwala maszynom modelować, a nawet ulepszać możliwości ludzkiego umysłu. Od rozwoju samojezdnych samochodów po rozpowszechnienie inteligentnych asystentów, takich jak Siri i Alexa, sztuczna inteligencja w coraz większym stopniu staje się częścią codziennego życia — i obszarem, w który inwestują firmy z każdej branży.

DEFINICJA SZTUCZNEJ INTELIGENCJI: PODSTAWY SZTUCZNEJ INTELIGENCJI


Zrozumienie sztucznej inteligencji

Ogólnie rzecz biorąc, sztucznie inteligentne systemy mogą wykonywać zadania zwykle związane z funkcjami poznawczymi człowieka — takie jak interpretowanie mowy, granie w gry i identyfikowanie wzorców. Zwykle uczą się, jak to robić, przetwarzając ogromne ilości danych, szukając wzorców do modelowania we własnym procesie decyzyjnym. W wielu przypadkach ludzie będą nadzorować proces uczenia się sztucznej inteligencji, wzmacniając dobre decyzje i zniechęcając do złych. Ale niektóre systemy sztucznej inteligencji są zaprojektowane tak, aby uczyć się bez nadzoru — na przykład grając w grę wideo w kółko, aż w końcu odkryją zasady i sposób na wygraną.


 

Silne AI vs. Słaba sztuczna inteligencja
Inteligencja jest trudna do zdefiniowania, dlatego eksperci AI zazwyczaj rozróżniają silną i słabą sztuczną inteligencję .

Silna sztuczna inteligencja
Silna sztuczna inteligencja, znana również jako sztuczna inteligencja ogólna , to maszyna, która może rozwiązywać problemy, nad którymi nigdy nie była szkolona — podobnie jak człowiek. To jest rodzaj sztucznej inteligencji, którą widzimy w filmach, jak roboty z Westworld lub postać Data z Star Trek: The Next Generation . Ten typ sztucznej inteligencji jeszcze nie istnieje.

Stworzenie maszyny o inteligencji na poziomie człowieka, którą można zastosować do dowolnego zadania, jest Świętym Graalem dla wielu badaczy sztucznej inteligencji, ale poszukiwanie sztucznej inteligencji ogólnej było najeżone trudnościami. Niektórzy uważają, że silne badania nad sztuczną inteligencją powinny być ograniczone ze względu na potencjalne ryzyko stworzenia potężnej sztucznej inteligencji bez odpowiednich barier ochronnych.

W przeciwieństwie do słabej sztucznej inteligencji, silna sztuczna inteligencja reprezentuje maszynę z pełnym zestawem zdolności poznawczych — i równie szerokim wachlarzem przypadków użycia — ale czas nie zmniejszył trudności w osiągnięciu takiego wyczynu.

Słaba sztuczna inteligencja
Słaba sztuczna inteligencja, czasami określana jako wąska sztuczna inteligencja lub wyspecjalizowana sztuczna inteligencja, działa w ograniczonym kontekście i jest symulacją ludzkiej inteligencji zastosowaną do wąsko zdefiniowanego problemu (takiego jak prowadzenie samochodu, transkrypcja ludzkiej mowy lub kuratorowanie treści na stronie internetowej).

Słaba sztuczna inteligencja często koncentruje się na bardzo dobrym wykonywaniu pojedynczego zadania. Chociaż te maszyny mogą wydawać się inteligentne, działają w znacznie większym stopniu niż nawet najbardziej podstawowa ludzka inteligencja.

Słabe przykłady sztucznej inteligencji obejmują:

Siri, Alexa i inni inteligentni asystenci
Samojezdne samochody
wyszukiwarka Google
Boty konwersacyjne
Filtry spamu e-mail
Rekomendacje Netflixa
 

Uczenie maszynowe vs. Głęboka nauka
Chociaż terminy „uczenie maszynowe” i „uczenie głębokie” często pojawiają się w rozmowach na temat sztucznej inteligencji, nie należy ich używać zamiennie. Uczenie głębokie jest formą uczenia maszynowego, a uczenie maszynowe jest poddziedziną sztucznej inteligencji.

Nauczanie maszynowe
Algorytm uczenia maszynowego jest zasilany danymi przez komputer i wykorzystuje techniki statystyczne, aby pomóc mu „nauczyć się”, jak stopniowo stawać się lepszym w wykonywaniu zadania, niekoniecznie będąc specjalnie zaprogramowanym do tego zadania. Zamiast tego algorytmy ML używają danych historycznych jako danych wejściowych do przewidywania nowych wartości wyjściowych. W tym celu uczenie maszynowe obejmuje zarówno uczenie nadzorowane (gdzie oczekiwany wynik dla danych wejściowych jest znany dzięki oznaczonym zestawom danych), jak i uczenie nienadzorowane (gdzie oczekiwane wyniki są nieznane ze względu na użycie nieoznakowanych zestawów danych).

Głęboka nauka
Głębokie uczenie się to rodzaj uczenia maszynowego, w którym dane wejściowe są przesyłane przez inspirowaną biologią architekturę sieci neuronowej. Sieci neuronowe zawierają szereg ukrytych warstw, przez które przetwarzane są dane, co pozwala maszynie „głęboko” się uczyć, nawiązywać połączenia i ważyć dane wejściowe w celu uzyskania najlepszych wyników.

PRZYKŁADY SZTUCZNEJ INTELIGENCJI

Cztery rodzaje sztucznej inteligencji
Sztuczną inteligencję można podzielić na cztery kategorie , w zależności od rodzaju i złożoności zadań, które system jest w stanie wykonać. Oni są:

Maszyny reaktywne
Ograniczona pamięć
Teoria umysłu
Samoświadomość
 
Maszyny reaktywne
Reaktywna maszyna przestrzega najbardziej podstawowych zasad sztucznej inteligencji i, jak sugeruje jej nazwa, jest w stanie wykorzystywać swoją inteligencję jedynie do postrzegania i reagowania na otaczający ją świat. Reaktywna maszyna nie może przechowywać pamięci, a co za tym idzie, nie może polegać na doświadczeniach z przeszłości, aby podejmować decyzje w czasie rzeczywistym.

Bezpośrednie postrzeganie świata oznacza, że ​​maszyny reaktywne są zaprojektowane do wykonywania tylko ograniczonej liczby wyspecjalizowanych zadań. Celowe zawężenie światopoglądu reaktywnej maszyny ma jednak swoje zalety: ten typ sztucznej inteligencji będzie bardziej godny zaufania i niezawodny oraz będzie reagował w ten sam sposób na te same bodźce za każdym razem.

Reaktywne przykłady maszyn
Deep Blue został zaprojektowany przez IBM w latach 90. jako superkomputer do gry w szachy i pokonał w grze międzynarodowego arcymistrza Gary'ego Kasparowa. Deep Blue był w stanie jedynie zidentyfikować figury na szachownicy i wiedzieć, jak każdy z nich się porusza w oparciu o zasady gry w szachy, rozpoznać obecną pozycję każdego pionka i określić, jaki ruch byłby najbardziej logiczny w danym momencie. Komputer nie śledził przyszłych potencjalnych ruchów przeciwnika ani nie próbował ustawić swoich figur w lepszej pozycji. Każdy obrót był postrzegany jako własna rzeczywistość, oddzielona od jakiegokolwiek innego ruchu, który został wykonany wcześniej.
 
AlphaGo firmy Google również nie jest w stanie ocenić przyszłych ruchów, ale polega na własnej sieci neuronowej do oceny rozwoju obecnej gry, co daje jej przewagę nad Deep Blue w bardziej złożonej grze. AlphaGo pokonała także światowej klasy konkurentów w tej grze, pokonując w 2016 roku mistrza Go, gracza Lee Sedola.
Ograniczona pamięć
Sztuczna inteligencja o ograniczonej pamięci ma możliwość przechowywania wcześniejszych danych i prognoz podczas zbierania informacji i ważenia potencjalnych decyzji — zasadniczo patrząc w przeszłość w poszukiwaniu wskazówek, co może nadejść. Sztuczna inteligencja z ograniczoną pamięcią jest bardziej złożona i oferuje większe możliwości niż maszyny reaktywne.

Sztuczna inteligencja o ograniczonej pamięci jest tworzona, gdy zespół stale szkoli model w zakresie analizowania i wykorzystywania nowych danych lub budowane jest środowisko sztucznej inteligencji, aby modele mogły być automatycznie szkolone i odnawiane.

Korzystając z ograniczonej pamięci AI w ML, należy wykonać sześć kroków:

Ustal dane treningowe
Utwórz model uczenia maszynowego
Upewnij się, że model może przewidywać
Upewnij się, że model może otrzymywać informacje zwrotne od ludzi lub środowiska
Przechowuj opinie ludzi i środowiska jako dane
Powtórz powyższe kroki jako cykl
Teoria umysłu
Teoria umysłu jest właśnie taka — teoretyczna. Nie osiągnęliśmy jeszcze możliwości technologicznych i naukowych niezbędnych do osiągnięcia następnego poziomu sztucznej inteligencji.

Koncepcja opiera się na psychologicznym założeniu zrozumienia, że ​​inne żywe istoty mają myśli i emocje, które wpływają na zachowanie jednostki. Jeśli chodzi o maszyny AI, oznaczałoby to, że sztuczna inteligencja mogłaby zrozumieć, jak czują się ludzie, zwierzęta i inne maszyny, i podejmować decyzje poprzez autorefleksję i determinację, a następnie wykorzystywać te informacje do podejmowania własnych decyzji. Zasadniczo maszyny musiałyby być w stanie uchwycić i przetworzyć koncepcję „umysłu”, fluktuacje emocji podczas podejmowania decyzji i litanię innych koncepcji psychologicznych w czasie rzeczywistym, tworząc dwukierunkową relację między ludźmi a sztuczną inteligencją.

Samoświadomość
Gdy teoria umysłu będzie mogła zostać ustalona, ​​kiedyś w przyszłości AI , ostatnim krokiem będzie samoświadomość sztucznej inteligencji. Ten rodzaj sztucznej inteligencji posiada świadomość na poziomie człowieka i rozumie swoją własną egzystencję w świecie, a także obecność i stan emocjonalny innych. Byłoby w stanie zrozumieć, czego mogą potrzebować inni, na podstawie nie tylko tego, co im komunikują, ale także sposobu, w jaki to komunikują.

Samoświadomość w sztucznej inteligencji opiera się zarówno na ludzkich badaczach, którzy rozumieją przesłanki świadomości, jak i uczą się, jak ją replikować, aby można ją było wbudować w maszyny.
Przykłady sztucznej inteligencji
Technologia sztucznej inteligencji przybiera różne formy, od chatbotów po aplikacje nawigacyjne i opaski fitness do noszenia. Poniższe przykłady ilustrują zakres potencjalnych zastosowań sztucznej inteligencji.

ChatGPT
ChatGPT to chatbot wykorzystujący sztuczną inteligencję, zdolny do tworzenia treści pisemnych w różnych formatach, od esejów po kod i odpowiedzi na proste pytania. Uruchomiony w listopadzie 2022 r. przez OpenAI, ChatGPT jest obsługiwany przez duży model językowy, który pozwala mu ściśle naśladować pismo ludzkie.

mapy Google
Mapy Google wykorzystują dane lokalizacyjne ze smartfonów, a także dane zgłaszane przez użytkowników dotyczące takich rzeczy, jak wypadki budowlane i samochodowe, aby monitorować przypływy i odpływy ruchu oraz oceniać najszybszą trasę.

Inteligentni asystenci
Asystenci osobiści, tacy jak Siri, Alexa i Cortana, wykorzystują przetwarzanie języka naturalnego (NLP) do otrzymywania instrukcji od użytkowników dotyczących ustawiania przypomnień, wyszukiwania informacji online i sterowania oświetleniem w domach. W wielu przypadkach ci asystenci mają na celu poznanie preferencji użytkownika i poprawę jego doświadczenia z upływem czasu dzięki lepszym sugestiom i bardziej dostosowanym odpowiedziom.

Filtry Snapchata
Filtry Snapchata wykorzystują algorytmy ML do rozróżniania obiektu zdjęcia od tła, śledzenia ruchów twarzy i dostosowywania obrazu na ekranie w zależności od tego, co robi użytkownik.

Samochody samojezdne
Samojezdne samochody są rozpoznawalnym przykładem głębokiego uczenia się, ponieważ wykorzystują głębokie sieci neuronowe do wykrywania obiektów wokół nich, określania odległości od innych samochodów, identyfikowania sygnałów drogowych i wielu innych.

Urządzenia do noszenia
Czujniki i urządzenia do noszenia stosowane w branży medycznej wykorzystują również głębokie uczenie do oceny stanu zdrowia pacjenta, w tym poziomu cukru we krwi, ciśnienia krwi i tętna. Mogą również wyprowadzać wzorce z wcześniejszych danych medycznych pacjenta i wykorzystywać je do przewidywania wszelkich przyszłych warunków zdrowotnych.

MuZero
MuZero, program komputerowy stworzony przez DeepMind, jest obiecującym liderem w dążeniu do osiągnięcia prawdziwej sztucznej inteligencji ogólnej. Udało mu się opanować gry, w które nawet nie nauczono go grać, w tym szachy i cały zestaw gier Atari, dzięki brutalnej sile, grając w gry miliony razy.
KORZYŚCI AI, WYZWANIA I PRZYSZŁOŚĆ
Korzyści ze sztucznej inteligencji
Sztuczna inteligencja ma wiele zastosowań — od przyspieszania opracowywania szczepionek po automatyzację wykrywania potencjalnych oszustw . Według badań CB Insights firmy zajmujące się sztuczną inteligencją pozyskały w 2022 r. 66,8 mld dolarów finansowania , co stanowi ponad dwukrotny wzrost kwoty zebranej w 2020 r. Ze względu na szybkie tempo wdrażania, sztuczna inteligencja robi fale w różnych branżach.

Bezpieczniejsza bankowość
Raport Business Insider Intelligence z 2022 r. na temat sztucznej inteligencji w bankowości wykazał, że ponad połowa firm świadczących usługi finansowe korzysta już z rozwiązań AI do zarządzania ryzykiem i generowania przychodów. Zastosowanie sztucznej inteligencji w bankowości może przynieść oszczędności rzędu 400 miliardów dolarów.

Lepsza medycyna
Jeśli chodzi o medycynę, w raporcie Światowej Organizacji Zdrowia z 2021 r. zauważono, że chociaż integracja sztucznej inteligencji w dziedzinie opieki zdrowotnej wiąże się z wyzwaniami, technologia ta „jest bardzo obiecująca”, ponieważ może prowadzić do korzyści, takich jak bardziej świadoma polityka zdrowotna i poprawa dokładności diagnozowania pacjentów .

Innowacyjne media
Sztuczna inteligencja odcisnęła swoje piętno również na rozrywce. Szacuje się, że globalny rynek sztucznej inteligencji w mediach i rozrywce osiągnie 99,48 mld USD do 2030 r., rosnąc z wartości 10,87 mld USD w 2021 r., według Grand View Research . To rozszerzenie obejmuje zastosowania sztucznej inteligencji , takie jak rozpoznawanie plagiatu i tworzenie grafiki w wysokiej rozdzielczości.

 

Wyzwania i ograniczenia AI
Chociaż sztuczna inteligencja jest z pewnością postrzegana jako ważny i szybko ewoluujący zasób, ta wschodząca dziedzina ma swoje wady .

W 2021 roku Pew Research Center przeprowadziło ankietę wśród 10 260 Amerykanów na temat ich stosunku do sztucznej inteligencji. Wyniki pokazały, że 45 procent respondentów jest równie podekscytowanych i zaniepokojonych, a 37 procent jest bardziej zaniepokojonych niż podekscytowanych. Ponadto ponad 40 procent respondentów stwierdziło, że uważa samochody bez kierowcy za szkodliwe dla społeczeństwa. Jednak pomysł wykorzystania sztucznej inteligencji do identyfikowania rozprzestrzeniania się fałszywych informacji w mediach społecznościowych spotkał się z lepszym przyjęciem, a blisko 40 procent ankietowanych uznało to za dobry pomysł.

Sztuczna inteligencja to dobrodziejstwo dla poprawy produktywności i wydajności przy jednoczesnym zmniejszeniu potencjalnego błędu ludzkiego. Ale są też pewne wady, takie jak koszty rozwoju i możliwość zastąpienia pracy człowieka przez zautomatyzowane maszyny . Warto jednak zauważyć, że branża sztucznej inteligencji również może tworzyć miejsca pracy — z których niektóre jeszcze nie zostały wynalezione.
 

Przyszłość sztucznej inteligencji
Jeśli weźmie się pod uwagę koszty obliczeniowe i techniczną infrastrukturę danych działającą za sztuczną inteligencją, faktyczne wykonywanie zadań na sztucznej inteligencji jest złożonym i kosztownym biznesem. Na szczęście nastąpił ogromny postęp w technologii komputerowej, na co wskazuje prawo Moore'a , które mówi, że liczba tranzystorów w mikroczipie podwaja się mniej więcej co dwa lata, podczas gdy koszt komputerów spada o połowę.

Chociaż wielu ekspertów uważa, że ​​prawo Moore'a prawdopodobnie dobiegnie końca w latach 20. XX wieku, miało to duży wpływ na nowoczesne techniki sztucznej inteligencji — bez niego głębokie uczenie byłoby wykluczone z finansowego punktu widzenia. Ostatnie badania wykazały, że innowacyjność sztucznej inteligencji faktycznie przewyższyła prawo Moore'a, podwajając się mniej więcej co sześć miesięcy, w przeciwieństwie do dwóch lat.

Zgodnie z tą logiką postęp, jakiego dokonała sztuczna inteligencja w różnych branżach, był znaczący w ciągu ostatnich kilku lat. A potencjał jeszcze większego wpływu w ciągu następnych kilkudziesięciu lat wydaje się prawie nieunikniony .

 

HISTORIA SZTUCZNEJ INTELIGENCJI, OŚ CZASU

Historia sztucznej inteligencji
Inteligentne roboty i sztuczne istoty po raz pierwszy pojawiły się w mitach starożytnej Grecji. A rozwój sylogizmu przez Arystotelesa i zastosowanie przez niego rozumowania dedukcyjnego było kluczowym momentem w dążeniu ludzkości do zrozumienia własnej inteligencji. Chociaż korzenie są długie i głębokie, historia sztucznej inteligencji, jaką znamy dzisiaj, obejmuje mniej niż sto lat. Poniżej znajduje się krótkie spojrzenie na niektóre z najważniejszych wydarzeń w AI.


1940
(1942) Isaac Asimov publikuje Trzy prawa robotyki , pomysł powszechnie spotykany w mediach science fiction, mówiący o tym, że sztuczna inteligencja nie powinna szkodzić ludziom.
(1943) Warren McCullough i Walter Pitts publikują artykuł „ A Logical Calculus of Ideas Immanent in Nervous Activity ”, który proponuje pierwszy matematyczny model budowy sieci neuronowej.
(1949) W swojej książce The Organization of Behaviour : A Neuropsychological Theory Donald Hebb proponuje teorię, że ścieżki neuronowe powstają na podstawie doświadczeń i że połączenia między neuronami stają się silniejsze, im częściej są używane. Uczenie się Hebbian nadal jest ważnym modelem w sztucznej inteligencji.
1950
(1950) Alan Turing publikuje artykuł „Computing Machinery and Intelligence”, proponując tak zwany test Turinga, metodę określania, czy maszyna jest inteligentna.
(1950) Studenci Harvardu, Marvin Minsky i Dean Edmonds, konstruują SNARC , pierwszy komputer sieci neuronowej.
(1950) Claude Shannon publikuje artykuł „ Programowanie komputera do gry w szachy ”.
(1952) Arthur Samuel opracowuje samouczący się program do gry w warcaby.
(1954) Eksperyment z tłumaczeniem maszynowym Georgetown-IBM automatycznie tłumaczy 60 starannie wybranych rosyjskich zdań na angielski.
(1956) Wyrażenie „sztuczna inteligencja” zostało ukute w Dartmouth Summer Research Project on Artificial Intelligence. Prowadzona przez Johna McCarthy'ego konferencja jest powszechnie uważana za kolebkę sztucznej inteligencji.
(1956) Allen Newell i Herbert Simon demonstrują Logic Theorist (LT), pierwszy program do rozumowania.
(1958) John McCarthy opracowuje język programowania sztucznej inteligencji Lisp i publikuje „ Programy ze zdrowym rozsądkiem ”, artykuł proponujący hipotetycznego doradcę, kompletny system sztucznej inteligencji, który może uczyć się z doświadczenia tak skutecznie, jak ludzie. 
(1959) Allen Newell, Herbert Simon i JC Shaw opracowują General Problem Solver (GPS), program mający naśladować rozwiązywanie problemów przez ludzi.
(1959) Herbert Gelernter rozwija program Geometry Theorem Prover.
(1959) Arthur Samuel ukuł termin „uczenie maszynowe” podczas pracy w IBM.
(1959) John McCarthy i Marvin Minsky zakładają projekt sztucznej inteligencji MIT.
1960
(1963) John McCarthy zakłada AI Lab w Stanford.
(1966) Raport Komitetu Doradczego ds. Automatycznego Przetwarzania Języka (ALPAC) sporządzony przez rząd Stanów Zjednoczonych szczegółowo opisuje brak postępów w badaniach nad tłumaczeniami maszynowymi, główną inicjatywą z czasów zimnej wojny, obiecującą automatyczne i natychmiastowe tłumaczenie rosyjskiego. Raport ALPAC prowadzi do anulowania wszystkich finansowanych przez rząd projektów MT.
(1969) W Stanford powstają pierwsze udane systemy eksperckie, DENDRAL i MYCIN.
lata 70
(1972) Powstaje język programowania logiki PROLOG.
(1973) Raport Lighthill, szczegółowo opisujący rozczarowania w badaniach nad sztuczną inteligencją, zostaje opublikowany przez rząd brytyjski i prowadzi do poważnych cięć w finansowaniu projektów AI.
(1974-1980) Frustracja postępem w rozwoju sztucznej inteligencji prowadzi do poważnych cięć DARPA w grantach akademickich. W połączeniu z wcześniejszym raportem ALPAC i raportem Lighthill z poprzedniego roku, finansowanie sztucznej inteligencji wysycha i badania utknęły w martwym punkcie. Ten okres jest znany jako „ Pierwsza Zima AI ”.
lata 80
(1980) Digital Equipment Corporations opracowuje R1 (znany również jako XCON), pierwszy komercyjny system ekspercki, który odniósł sukces. Zaprojektowany do konfigurowania zamówień na nowe systemy komputerowe, R1 rozpoczyna boom inwestycyjny w systemy eksperckie, który potrwa przez większą część dekady, skutecznie kończąc pierwszą zimę AI.
(1982) Japońskie Ministerstwo Handlu Międzynarodowego i Przemysłu uruchamia ambitny projekt systemów komputerowych piątej generacji. Celem FGCS jest opracowanie wydajności zbliżonej do superkomputera oraz platformy do rozwoju sztucznej inteligencji.
(1983) W odpowiedzi na japoński FGCS, rząd Stanów Zjednoczonych uruchamia Strategic Computing Initiative, aby zapewnić finansowane przez DARPA badania nad zaawansowaną informatyką i sztuczną inteligencją.
(1985) Firmy wydają ponad miliard dolarów rocznie na systemy eksperckie, a cała branża znana jako rynek maszyn Lisp pojawia się, aby je wspierać. Firmy takie jak Symbolics i Lisp Machines Inc. budują wyspecjalizowane komputery do pracy w języku programowania AI Lisp.
(1987-1993) Wraz z rozwojem technologii komputerowej pojawiły się tańsze alternatywy, a rynek maszyn Lisp załamał się w 1987 r., zapoczątkowując „drugą zimę sztucznej inteligencji ”. W tym okresie systemy eksperckie okazały się zbyt drogie w utrzymaniu i aktualizacji, ostatecznie wypadając z łask.
lata 90
(1991) Siły amerykańskie wdrażają DART, zautomatyzowane narzędzie do planowania i planowania logistyki podczas wojny w Zatoce Perskiej.
(1992) Japonia kończy projekt FGCS w 1992 roku, powołując się na niepowodzenie w osiągnięciu ambitnych celów nakreślonych dekadę wcześniej.
(1993) DARPA kończy Strategic Computing Initiative w 1993 roku po wydaniu prawie 1 miliarda dolarów i dalekim od oczekiwań.
(1997) IBM Deep Blue pokonuje mistrza świata w szachach Gary'ego Kasparowa.
2000s
(2005) STANLEY , samojezdny samochód, wygrywa DARPA Grand Challenge.
(2005) Wojsko USA zaczyna inwestować w autonomiczne roboty, takie jak „Big Dog” firmy Boston Dynamics i „PackBot” firmy iRobot.
(2008) Google dokonuje przełomu w rozpoznawaniu mowy i wprowadza tę funkcję w swojej aplikacji na iPhone'a.
2010s
(2011) IBM Watson zręcznie pokonuje konkurencję w Jeopardy!.
(2011) Apple wypuszcza Siri, wirtualnego asystenta opartego na sztucznej inteligencji, dostępnego w systemie operacyjnym iOS.
(2012) Andrew Ng, założyciel projektu Google Brain Deep Learning, zasila sieć neuronową za pomocą algorytmów głębokiego uczenia 10 milionami filmów z YouTube jako zestawem treningowym. Sieć neuronowa nauczyła się rozpoznawać kota, nie mówiąc mu, czym jest kot, zapoczątkowując przełomową erę dla sieci neuronowych i finansowania głębokiego uczenia się.
(2014) Google tworzy pierwszy samojezdny samochód , który zdał państwowy egzamin na prawo jazdy.
(2014) Premiera Amazon Alexa, wirtualnego domowego inteligentnego urządzenia .
(2016) AlphaGo firmy Google DeepMind pokonuje mistrza świata gracza Go, Lee Sedola. Złożoność starożytnej chińskiej gry była postrzegana jako główna przeszkoda do pokonania w sztucznej inteligencji.
(2016) Pierwszy „robot-obywatel”, humanoidalny robot o imieniu Sophia, został stworzony przez Hanson Robotics i jest zdolny do rozpoznawania twarzy, komunikacji werbalnej i wyrazu twarzy.
(2018) Google wypuszcza silnik przetwarzania języka naturalnego BERT , zmniejszając bariery w tłumaczeniu i zrozumieniu przez aplikacje ML.
(2018) Waymo uruchamia usługę Waymo One, umożliwiającą użytkownikom w całym obszarze metropolitalnym Phoenix zamówienie odbioru z jednego z samojezdnych pojazdów firmy.
2020s
(2020) Baidu udostępnia swój algorytm LinearFold AI zespołom naukowym i medycznym pracującym nad opracowaniem szczepionki we wczesnych stadiach pandemii SARS-CoV-2. Algorytm jest w stanie przewidzieć sekwencję RNA wirusa w zaledwie 27 sekund, 120 razy szybciej niż inne metody.
(2020) OpenAI wypuszcza model przetwarzania języka naturalnego GPT-3 , który jest w stanie tworzyć tekst wzorowany na sposobie, w jaki ludzie mówią i piszą.
(2021) OpenAI opiera się na GPT-3, aby opracować DALL-E , który jest w stanie tworzyć obrazy z monitów tekstowych.
(2022) Narodowy Instytut Standardów i Technologii publikuje pierwszy projekt ram zarządzania ryzykiem AI , dobrowolnych amerykańskich wytycznych „w celu lepszego zarządzania ryzykiem dla osób, organizacji i społeczeństwa związanym ze sztuczną inteligencją”.
(2022) DeepMind przedstawia Gato , system sztucznej inteligencji wyszkolony do wykonywania setek zadań, w tym grania na Atari, dodawania napisów do obrazów i używania ramienia robota do układania bloków.
(2022) OpenAI uruchamia ChatGPT, chatbota opartego na dużym modelu językowym, który zdobywa ponad 100 milionów użytkowników w ciągu zaledwie kilku miesięcy.
(2023) Microsoft wprowadza wersję Bing, swojej wyszukiwarki opartą na sztucznej inteligencji, opartą na tej samej technologii, która napędza ChatGPT.
(2023) Google przedstawia Bard, konkurencyjną konwersacyjną sztuczną inteligencję.


Przejdź do strony głównej
Korzystanie z tej witryny oznacza wyrażenie zgody na wykorzystanie plików cookies. Więcej informacji możesz znaleźć w naszej Polityce Cookies.
Nie pokazuj więcej tego komunikatu