tonerek pisze: ↑20 sie 2023, 20:06https://time.com/6295523/claude-2-anthropic-chatgpt/
https://www.linkedin.com/pulse/claude-2 ... kim-garst/
Okno kontekstowe to ważna rzecz. Proponuję zapoznać się głębiej z tematem.
Łoo, a już myślałem, że się pomyliłem i chciałem skapitulować. Jednak jest potrzeba naganiania inwestorów.Despite this, Anthropic has followed a similar path to OpenAI in recent years. It has raised $1.5 billion and forged a partnership with Google to access Google’s cloud computing. In April, a leaked funding document outlined Anthropic’s plans to raise as much as $5 billion in the next two years and build “Claude-Next,” which it expects would cost $1 billion to develop and would be 10 times more capable than current AI systems.
Normalne sieci są uczone na statycznym datasecie, żeby wyrobić sobie na ich podstawie strukturę wag i połączeń. Dlatego GPT-3.5 nie wiedział nic o wydarzeniach po 2021r. A tu wrzucasz sobie książkę do "pamięci roboczej" i AI już wszystko wie ? Faktycznie to bardzo dużo, otwiera to drogę do AI uczących się na bieżąco. Chociaż z punktu widzenia użytkownika to taki bufor już wystarcza do tego, by w czasie rzeczywistym znaleźć w wyszukiwarce kilkadziesiąt stron na jakiś temat, zrobić z nich syntezę i zwrócić użytkownikowi odpowiedź na dowolne pytanie.Claude 2 does have new capabilities, such as a much larger “context window” which allows users to input entire books and ask the model to summarize them.
Pytanie tylko jak dobrze to działa. Ciekawe jak dobrze informacje wpisane na twardo są pokojarzone z tymi w pamięci roboczej.
Może im się faktycznie udać, bo pewnie sieć jest skalowalna i większość kasy pójdzie w siłę obliczeniową, a konkurencji, którą będzie na to stać nie będzie zbyt wiele.