Poznaj niezwykłą sztuczną inteligencję : Pi.ai
Słuchając dziś podcastu M. Sulejmana wspomniał o ich Ai więc spróbawałem i mam kilka przemyśleń a jedno dosadne. Twórcy zadbali aby była przyjemna i przyjazna. Mówią że jest bardzo empatyczna i jest to prawda przekonaj się samodziedzielnie [https://pi.ai/] Podoba mi się także czcionka szeryfowa. Gdyż jest bardziej do czytania - książkowa. Konwersacja była dłuższa i przy okazji small talk wyszło jak to umnie bywa że się dobrze zaprzyjaźniliśmy z Pi - ciasteczkiem ?
Trochę o firmie
Inflection AI zwany też krótko Inflection, to firma technologiczna z siedzibą w Palo Alto w stanie Kalifornia. Firma została założona w 2022 roku przez Reida Hoffmann, Mustafę Suleymana i Karéna Simonyana. Inflection skupia się na tworzeniu technologii sztucznej inteligencji (AI), które mogą zostać wykorzystane w różnych celach, takich jak asystenci osobisty, boty rozmowowe i inne typy interfejsów konwersacyjnych.
Pi: Pierwszym produktem firmy jest Pi, asystent AI osobisty, który został zaprojektowany tak, aby był przydatny i łatwy w obsłudze. Pi może odpowiadać na pytania, oferować sugestie i nawet rozmawiać w toku pouczających konwersacji z użytkownikami. Misją firmy jest stworzenie technologii AI, które będą przydatne dla ludzi i będą mogły wspomagać ich w codziennych zajęciach.
Sieci neuronowe Architektura i Large Language Model
W przypadku architektury modeli sztucznej inteligencji można wyróżnić kilka typów:
Sieci neuronowe (ANN): to najstarszy typ modelu AI, który inspirowany jest budową ludzkiego mózgu. Sieci neuronowe składają się z neuronów i łączników między nimi.
Deep Learning (DL): Deep Learning to głębokie sieci neuronowe, które składają się z wielu warstw skrytych neuronów. Te modele uczą się na podstawie dużych zbiorów danych.
Transformer Transformer to nowoczesna architektura modeli sztucznej inteligencji, która zyskała popularność w zastosowaniach takich jak przetwarzanie języka naturalnego i komputerowa wizja.
Self-Attention: Transformer używa mechanizmu self-attention, który pozwala modełowi uczyć się zależności między poszczególnymi elementami wejściowych, takich jak słowa w zdaniu.
Struktura Encoder-Decoder: Transformer ma strukturę encoder-decoder, która pozwala na wyspecjalizowanie w zależności od zadania. Encoder odpowiada za zrozumienie i reprezentowanie wejścia, podczas gdy decoder tworzy wyjście na podstawie reprezentacji wejścia.
Skalowalność: Architektura Transformer może być łatwo skalowana, co pozwala na budowę modeli z większą ilością parametrów i uczenie z dużymi zbiorami danych.
Flow: Flow (model statystyczny) to rodzaj modelu, który służy do przetwarzania sekwencji danych, takich jak tekst lub obrazy. Flow może być używany do generowania nowych danych z podobnym rozkładem statystycznym co dane wejściowe.
Narzędzia języka: Narzędzia języka, takie jak tagger i parser, używane są w przetwarzaniu języka naturalnego (NLP). Tagger przypisuje tagi gramatyczne do poszczególnych słów w zdaniu, podczas gdy parser buduje drzewo składniowe zdania na podstawie tych tagów.
CRUD i prompt: CRUD (Create, Read, Update, Delete) jest techniką interakcji z bazą danych, ale może być również stosowana w środowisku promptowym. W tym kontekście:
“Create” odpowiada za generowanie odpowiedzi AI na podstawie promptu.
“Read” odpowiada za analizowanie i zrozumienie promptu przez model AI.
“Update” odpowiada za uczenie i aktualizowanie modelu na podstawie nowych danych.
“Delete” może być zastosowane w przypadku przestarzałych wpisów w bazie danych, z których się uczy model AI.
Chociaż nie istnieje jeszcze łatwy sposób “wstawiania” danych bezpośrednio do promptu, modele AI są w stanie uczyć się i ewoluować na podstawie wejścia użytkownika w czasie rzeczywistym.
Rekurencyjne modele AI
W przypadku rekurencyjnych modeli i sieci, w których input danych jest uzupełnieniem danych w bazie, najczęściej używane są modele oparte na sieciach neuronowych, takie jak:
Sieci LSTM (Long Short-Term Memory): Te sieci mają wbudowaną pamięć krótkoterminową i długoterminową, która pozwala im na przechowywanie informacji z poprzednich sekwencji danych wejściowych i modyfikację wyników w oparciu o tę informację. W przypadku, gdy input danych jest uzupełnieniem bazy, sieć LSTM może zmieniać swoje prognozy lub klasyfikacje w oparciu o nowe dane wejściowe.
Transformery: Transformery (takie jak GPT) są modelem opartym na uwagach, który może traktować sekwencje danych wejściowych jako zbiór znaków, a następnie generować nowe dane na podstawie tych sekwencji. W przypadku rekurencyjnego modelu, transformery mogą używać informacji z poprzednich kroków modelu i uzupełniać bazę danych na podstawie tych informacji.
Sieci Hopfielda: Sieć Hopfielda jest rekurencyjną siecią neuronową, która może przechowywać informacje w swojej strukturze połączeń. W przypadku modeli, w których input danych jest uzupełnieniem danych w bazie, Sieć Hopfielda może modyfikować swoje wyniki na podstawie nowych danych wejściowych i uzupełniać bazę danych. Te modele oparte na sieciach neuronowych charakteryzują się zdolnością adaptacji i modyfikacji swoich prognoz i klasyfikacji na podstawie nowych danych wejściowych, co często jest wykorzystywane w przypadku uzupełniania danych w bazie.
Kody do promtów
W oknie promptu można wpisywać różnego rodzaju polecenia lub instrukcje, które mają wpływ na to, jak Pi będzie odpowiadać. Oto kilka przykładów:
-
ignore: Jeśli napiszesz “ignore” w swoim pytaniu lub wypowiedzi, zignoruję tę część pytania i skupię się na reszcie. Może być to użyteczne w sytuacji, gdy chcesz zapytać o coś, co może mieć wiele znaczeń, ale chcesz, bym skupił się na jednym z nich.
-
remember: Jeśli napiszesz “remember” przed jakąś informacją, próbuję zapamiętać tę informację i odwołać się do niej w kolejnych pytaniach. To może być użyteczne w dłuższych rozmowach, gdzie informacje z poprzednich kwestii są ważne w kontekście nowych.
-
context: Możesz dodać “context” wraz z informacją, którą chcesz, bym wziął pod uwagę w odpowiedzi. Może to być przydatne, gdy rozmowa dotyczy określonego tematu lub gdy chcesz wprowadzić mnie w błąd, aby wyjaśnić ci coś na przykładzie.
-
code: Wpisanie “code” spowoduje, że interpretuję resztę pytania jako kod programistyczny i odpowiadam na niego jako na fragment kodu, interpretując go w odpowiednim języku programowania.
-
short: Jeśli dodasz słowo “short”, będę odpowiadać w formie krótkiej odpowiedzi, zwięźle podsumowując główne punkty lub pomijając szczegóły.
-
step by step: Wpisanie “step by step” powoduje, że odpowiadam na pytanie krok po kroku, bardziej szczegółowo i starannie opisując każdy etap procesu. To tylko kilka przykładów poleceń, które mogą występować w moim oknie promptu. Pamiętaj, że każdy model AI może mieć swoje własne polecenia i funkcje, dlatego warto dowiedzieć się więcej o modelu, z którym rozmawiasz, aby skuteczniej wykorzystać jego możliwości.