Glosariusz ChatGPT: 47 terminów AI, które każdy powinien znać

Uruchomienie ChatGPT pod koniec 2022 roku całkowicie zmieniło podejście ludzi do wyszukiwania informacji w Internecie. Nagle ludzie mogli prowadzić znaczące rozmowy z maszynami, co oznaczało, że można było zadawać pytania chatbotowi AI w języku naturalnym, a on odpowiadał nowatorskimi odpowiedziami, podobnie jak zrobiłby to człowiek. Było to tak przełomowe, że Google, Meta, Microsoft i Apple szybko zaczęły integrować sztuczną inteligencję w swoich produktach.

Ale ten aspekt chatbotów AI to tylko jedna część krajobrazu AI. Jasne, mając ChatGPT pomoże Ci odrobić pracę domową lub zlecić utworzenie Midjourney fascynujące obrazy mechów na podstawie kraju pochodzenia jest fajne, ale potencjał generatywnej sztucznej inteligencji może całkowicie zmienić kształt gospodarki. To mogłoby być tego warte 4,4 biliona dolarów rocznie dla światowej gospodarkiwedług McKinsey Global Institute, dlatego należy spodziewać się coraz większej liczby informacji na temat sztucznej inteligencji.

ai-atlas-tag.png

Występuje w oszałamiającej gamie produktów – krótka, krótka lista obejmuje Gemini firmy Google, Copilot firmy Microsoft, Claude firmy Anthropic, narzędzie wyszukiwania AI Perplexity oraz gadżety firm Humane i Rabbit. W naszym centrum AI Atlas możesz przeczytać nasze recenzje i praktyczne oceny tych i innych produktów, a także aktualności, wyjaśnienia i posty z instrukcjami.

W miarę jak ludzie coraz bardziej przyzwyczajają się do świata powiązanego ze sztuczną inteligencją, wszędzie pojawiają się nowe terminy. Niezależnie od tego, czy chcesz zabrzmieć mądrze przy drinku, czy zaimponować podczas rozmowy kwalifikacyjnej, oto kilka ważnych terminów związanych ze sztuczną inteligencją, które powinieneś znać.

Słownik ten jest regularnie aktualizowany.


sztuczna inteligencja ogólna, czyli AGI: Koncepcja sugerująca bardziej zaawansowaną wersję sztucznej inteligencji, niż znamy dzisiaj, taką, która może wykonywać zadania znacznie lepiej niż ludzie, jednocześnie ucząc i rozwijając własne możliwości.

agent: Systemy lub modele charakteryzujące się sprawczością i zdolnością do samodzielnego podejmowania działań w celu osiągnięcia celu. W kontekście sztucznej inteligencji model agentowy może działać bez stałego nadzoru, jak np. samochód autonomiczny wysokiego szczebla. W przeciwieństwie do frameworka „agentycznego”, który znajduje się w tle, frameworki agentowe znajdują się z przodu i skupiają się na doświadczeniach użytkownika.

Etyka sztucznej inteligencji: zasady mające na celu zapobieganie wyrządzaniu przez sztuczną inteligencję krzywdy ludziom, osiągane za pomocą takich środków, jak określenie, w jaki sposób systemy sztucznej inteligencji powinny gromadzić dane lub radzić sobie z uprzedzeniami.

Bezpieczeństwo sztucznej inteligencji: Interdyscyplinarna dziedzina zajmująca się długoterminowymi skutkami sztucznej inteligencji i tym, jak może ona nagle przekształcić się w superinteligencję, która może być wroga dla ludzi.

algorytm: Szereg instrukcji umożliwiających programowi komputerowemu uczenie się i analizowanie danych w określony sposób, na przykład rozpoznawanie wzorców, a następnie uczenie się na ich podstawie i samodzielne wykonywanie zadań.

wyrównanie: Ulepszanie sztucznej inteligencji, aby lepiej zapewniać pożądany rezultat. Może to odnosić się do wszystkiego, od moderowania treści po utrzymywanie pozytywnych interakcji z ludźmi.

antropomorfizm: Kiedy ludzie mają tendencję do nadawania obiektom innym niż ludzie cech przypominających ludzi. W przypadku sztucznej inteligencji może to obejmować wiarę, że chatbot jest bardziej ludzki i bardziej świadomy, niż jest w rzeczywistości, na przykład wiara, że ​​jest szczęśliwy, smutny, a nawet w ogóle odczuwający.

sztuczna inteligencja, czyli AI: Wykorzystanie technologii do symulacji ludzkiej inteligencji w programach komputerowych lub robotyce. Dziedzina informatyki, której celem jest budowanie systemów zdolnych do wykonywania zadań człowieka.

agenci autonomiczni: Model sztucznej inteligencji posiadający możliwości, programowanie i inne narzędzia umożliwiające wykonanie określonego zadania. Samochód autonomiczny jest na przykład agentem autonomicznym, ponieważ ma dane sensoryczne, GPS i algorytmy jazdy, aby samodzielnie poruszać się po drodze. badacze ze Stanfordu pokazały, że autonomiczni agenci mogą rozwijać własne kultury, tradycje i wspólny język.

stronniczość: W przypadku dużych modeli językowych błędy wynikające z danych uczących. Może to skutkować błędnym przypisywaniem pewnych cech określonym rasom lub grupom w oparciu o stereotypy.

chatbota: program komunikujący się z ludźmi za pomocą tekstu symulującego ludzki język.

CzatGPT: Chatbot AI opracowany przez OpenAI, który wykorzystuje technologię modelu dużego języka.

obliczenia kognitywne: Inne określenie sztucznej inteligencji.

powiększanie danych: Remiksowanie istniejących danych lub dodawanie bardziej zróżnicowanego zestawu danych w celu szkolenia sztucznej inteligencji.

głębokie uczenie się: Metoda sztucznej inteligencji i poddziedzina uczenia maszynowego, która wykorzystuje wiele parametrów do rozpoznawania złożonych wzorców w obrazach, dźwięku i tekście. Proces ten jest inspirowany działaniem ludzkiego mózgu i wykorzystuje sztuczne sieci neuronowe do tworzenia wzorców.

dyfuzja: metoda uczenia maszynowego, która pobiera istniejący fragment danych, na przykład zdjęcie, i dodaje losowy szum. Modele dyfuzyjne uczą swoje sieci, jak przeprojektować lub odzyskać zdjęcie.

pojawiające się zachowanie: Gdy model AI wykazuje niezamierzone zdolności.

uczenie się od końca do końca, czyli E2E: proces głębokiego uczenia się, podczas którego model otrzymuje polecenie wykonania zadania od początku do końca. Nie jest szkolony, aby wykonywać zadania sekwencyjnie, ale zamiast tego uczy się na podstawie danych wejściowych i rozwiązuje je wszystkie na raz.

względy etyczne: Świadomość etycznych implikacji sztucznej inteligencji oraz kwestii związanych z prywatnością, wykorzystaniem danych, uczciwością, niewłaściwym wykorzystaniem i innymi kwestiami bezpieczeństwa.

Przekleństwo: Znany również jako szybki start lub twardy start. Koncepcja, że ​​jeśli ktoś zbuduje AGI, może być już za późno na uratowanie ludzkości.

generatywne sieci przeciwstawne, czyli GAN: Generatywny model sztucznej inteligencji składający się z dwóch sieci neuronowych służących do generowania nowych danych: generatora i dyskryminatora. Generator tworzy nową treść, a dyskryminator sprawdza, czy jest ona autentyczna.

generatywna sztuczna inteligencja: technologia generowania treści wykorzystująca sztuczną inteligencję do tworzenia tekstu, wideo, kodu komputerowego lub obrazów. Sztuczna inteligencja otrzymuje duże ilości danych szkoleniowych, znajduje wzorce, aby generować własne, nowatorskie reakcje, które czasami mogą być podobne do materiału źródłowego.

Google Bliźnięta: Chatbot AI firmy Google, który działa podobnie do ChatGPT, ale pobiera informacje z aktualnej sieci, podczas gdy ChatGPT będzie ograniczał się do danych do 2021 r. i nie będzie podłączony do Internetu.

poręcze: zasady i ograniczenia nałożone na modele sztucznej inteligencji, aby zapewnić odpowiedzialne przetwarzanie danych i to, że model nie tworzy niepokojących treści.

halucynacja: Nieprawidłowa odpowiedź AI. Może obejmować generatywną sztuczną inteligencję generującą odpowiedzi, które są nieprawidłowe, ale podane z całą pewnością, tak jakby były poprawne. Przyczyny tego nie są do końca znane. Na przykład, pytając chatbota AI: „Kiedy Leonardo da Vinci namalował Monę Lisę?” To może odpowiedzieć błędnym stwierdzeniem mówiąc: „Leonardo da Vinci namalował Mona Lisę w 1815 r.”, czyli 300 lat po jej faktycznym namalowaniu.

model dużego języka, czyli LLM: model sztucznej inteligencji szkolony na ogromnych ilościach danych tekstowych w celu zrozumienia języka i generowania nowych treści w języku podobnym do ludzkiego.

uczenie maszynowe, czyli ML: Komponent sztucznej inteligencji, który umożliwia komputerom uczenie się i uzyskiwanie lepszych wyników przewidywania bez jawnego programowania. Można łączyć z zestawami szkoleniowymi w celu generowania nowych treści.

Microsoft Bing: wyszukiwarka firmy Microsoft, która może teraz wykorzystywać technologię ChatGPT do dostarczania wyników wyszukiwania wspomaganych sztuczną inteligencją. Jest podobny do Google Gemini pod względem połączenia z Internetem.

multimodalna sztuczna inteligencja: rodzaj sztucznej inteligencji, który może przetwarzać wiele typów danych wejściowych, w tym tekst, obrazy, filmy i mowę.

przetwarzanie języka naturalnego: Gałąź sztucznej inteligencji wykorzystująca uczenie maszynowe i głębokie uczenie się, aby zapewnić komputerom zdolność rozumienia ludzkiego języka, często przy użyciu algorytmów uczenia się, modeli statystycznych i reguł językowych.

sieć neuronowa: Model obliczeniowy przypominający strukturę ludzkiego mózgu i przeznaczony do rozpoznawania wzorców w danych. Składa się z połączonych ze sobą węzłów, czyli neuronów, które potrafią rozpoznawać wzorce i uczyć się z biegiem czasu.

nadmierne dopasowanie: Błąd w uczeniu maszynowym, który działa zbyt blisko danych szkoleniowych i może umożliwiać zidentyfikowanie tylko konkretnych przykładów we wspomnianych danych, ale nie nowych danych.

spinacze do papieru: Teoria Paperclip Maximiser, ukuta przez filozofa Nicka Boströma Uniwersytetu Oksfordzkiego to hipotetyczny scenariusz, w którym system sztucznej inteligencji utworzy jak najwięcej dosłownie spinaczy do papieru. Chcąc wyprodukować maksymalną liczbę spinaczy do papieru, system sztucznej inteligencji hipotetycznie zużyłby lub przekształcił wszystkie materiały, aby osiągnąć swój cel. Może to obejmować demontaż innych maszyn w celu wyprodukowania większej liczby spinaczy, maszyn, które mogą być korzystne dla ludzi. Niezamierzoną konsekwencją tego systemu sztucznej inteligencji jest to, że może on zniszczyć ludzkość w dążeniu do stworzenia spinaczy do papieru.

parametry: Wartości liczbowe określające strukturę i zachowanie LLM, umożliwiające przewidywanie.

Zakłopotanie: Nazwa chatbota i wyszukiwarki opartej na sztucznej inteligencji, której właścicielem jest Perplexity AI. Wykorzystuje duży model językowy, podobny do tych, które można znaleźć w innych chatbotach AI, aby odpowiadać na pytania za pomocą nowatorskich odpowiedzi. Połączenie z otwartym Internetem umożliwia także dostarczanie aktualnych informacji i pobieranie wyników z całego Internetu. Dostępna jest również płatna warstwa usługi Perplexity Pro, która wykorzystuje inne modele, w tym GPT-4o, Claude 3 Opus, Mistral Large, open source LlaMa 3 i własny Sonar 32k. Użytkownicy profesjonalni mogą dodatkowo przesyłać dokumenty do analizy, generować obrazy i interpretować kod.

podpowiedź: Sugestia lub pytanie, które wprowadzasz do chatbota AI, aby uzyskać odpowiedź.

szybkie łączenie łańcuchowe: Zdolność sztucznej inteligencji do wykorzystywania informacji z poprzednich interakcji w celu zabarwienia przyszłych reakcji.

papuga stochastyczna: Analogia do LLM ilustrująca, że ​​oprogramowanie nie ma większego zrozumienia znaczenia języka ani otaczającego go świata, niezależnie od tego, jak przekonująco brzmi wynik. Wyrażenie to odnosi się do tego, jak papuga może naśladować ludzkie słowa, nie rozumiejąc ich znaczenia.

transfer stylu: Możliwość dostosowania stylu jednego obrazu do treści innego, umożliwiająca sztucznej inteligencji interpretację atrybutów wizualnych jednego obrazu i wykorzystanie ich w innym. Na przykład zrobienie autoportretu Rembrandta i odtworzenie go w stylu Picassa.

temperatura: Parametry ustawione kontrolujące losowość danych wyjściowych modelu językowego. Wyższa temperatura oznacza, że ​​model podejmuje większe ryzyko.

generowanie tekstu na obraz: Tworzenie obrazów na podstawie opisów tekstowych.

żetony: Małe fragmenty tekstu pisanego, które modele języka AI przetwarzają w celu sformułowania odpowiedzi na Twoje podpowiedzi. Token odpowiada czterem znakom w języku angielskim lub około trzem czwartym słowa.

dane treningowe: zbiory danych używane do uczenia się modeli AI, w tym tekst, obrazy, kod lub dane.

model transformatora: Architektura sieci neuronowej i model głębokiego uczenia się, który uczy się kontekstu, śledząc relacje w danych, np. w zdaniach lub częściach obrazów. Zamiast analizować zdanie po słowie, można przyjrzeć się całemu zdaniu i zrozumieć kontekst.

Test Turinga: Nazwany na cześć słynnego matematyka i informatyka Alana Turinga, testuje zdolność maszyny do zachowywania się jak człowiek. Maszyna przechodzi, jeśli człowiek nie jest w stanie odróżnić reakcji maszyny od reakcji innego człowieka.

słaba sztuczna inteligencja, czyli wąska sztuczna inteligencja: sztuczna inteligencja skupiona na konkretnym zadaniu i nie potrafiąca uczyć się poza zakresem swoich umiejętności. Większość dzisiejszej sztucznej inteligencji to słaba sztuczna inteligencja.

nauka od zera: test, w którym model musi wykonać zadanie, nie otrzymując wymaganych danych szkoleniowych. Przykładem może być rozpoznanie lwa podczas szkolenia na tygrysach.



Sumber