Wpis z mikrobloga

Mam problem z AI. Może ktoś mi doradzi jak sobie z tym poradzić.

Tworzę sobie grę w której gracz musi odpowiadać na pytania podczas gry i te pytania zwiekszają mu statystyki, albo jedna albo drugą. Czasami wybór jednej obnizy statystyke drugiej itd. ŻADEN AI nie jest w stanie poprawnie odpowiedzieć. Każde się myli na najprostszej mozliwej kombinacji.

Podaje że są dwie statystyki L i D i żadna nie moge przekroczyć 6 ( w sensie powyzej 6 nie dodaje żadnych punktów, ale nadal powinien odjąć jeżeli wybór tego wymaga).

1. A=+1L i -1D, B=+1D i -1L
2. A=+2L i -1D, B=+1D
3. A=+1D, B=+1D i +1L
4. A=+1L, B=+1D
5. A=+2L i -1D, B=+2D i -1L
6. A=+1D i -1L, B=+1L i -1D

Prosze żeby wskazał mi najlepszy możliwy wybór żeby końcowo uzyskać najwyzszy wynik L i D, a chatgpt4 podaje mi:

Gracz powinien wybrać następujące odpowiedzi, aby osiągnąć najwyższe możliwe wartości dla L i D (zakładając, że żadna ze statystyk nie może przekroczyć 6):

Wybór 1: B (D=1, L=0)
......


i już w pierwszym robi błąd bo L wyniesie przy B -1.

Rozumiem że pytanie jest trudne i w ogóle no ale od tego chyba one są żeby odpowiadać na takie. Dodam że te wszystkie inne darmowe boty nie radziły sobie nawet z poprawnym wyliczeniem aktualnych wartości po 6 pytaniu jak mu podawałem co wybierał gracz. Czasem odejmowały, czasem nie odejmowały, czasem pisały że przepraszały za błąd i teraz już rozumieją że jak dodawały D to musza odjąć L po czym podawały mi znowu wynik z błędem.

AI jeszcze wymaga DUUUUUUŻO pracy.

#ai #programowanie #chatgpt #claude #copilot #gemini
  • 10
  • Odpowiedz
@Asgraf:

duży model językowy jak sama nazwa mówi umie operować językiem a nie matematyką


Istnieje hipoteza że to jest to samo. Tzn. że jak model będzie wystarczająco dobry w język, to matematyka zrobi się sama.

Jednak z tym operowaniem językiem u LLMów jest też mega słabo. To że potrafią sklecić zdania, które wyglądają poprawnie gramatycznie to jedno, ale nie są w stanie już napisać np. sensownego opowiadania albo rozprawki. Próbowałem czatem
  • Odpowiedz
@BC_anada: Popatrz sobie na te wątki niżej, problem jest inny ale też jest tam konieczność jakiejś ciągłości:

https://twitter.com/VictorTaelin/status/1777049193489572064

https://twitter.com/futuristfrog/status/1778109834509832462

tutaj jest zwycięski prompt: https://github.com/VictorTaelin/ab_challenge_eval/tree/main/users/futuristfrog

Może ci się poszczęści, ale i tak pewnie lepiej i prościej będzie to zrobić jakimś prostym sprawdzeniem przyszłych stanów.
  • Odpowiedz
@Krolik: Ludzie posiadają dwa tryby pracy mózgu:
1) myślenie szybkie (myślenie odruchowe, myślenie instynktowne, myślenie stereotypowe, pamięć mięśniowa, intuicja) - to myślenie jest szybkie, tanie energetyczne ale zawodne
2) myślenie wolne (oparte na dokładnej analizie wszystkich dostępnych opcji, oparte planowaniu działań i oparte na rzetelnym researchu) - to myślenie jest powolne, drogie energetycznie i męczące

Dzisiejsze LLMy implementują myślenie typu 1)
Myślenie typu 2) wymaga rozwiązań RAG typu tree of thought
  • Odpowiedz