Přeskočit na obsah

ChatGPT/Juandev/Úvahy

Z Wikiverzity
  • všímám si, že cg je odrazem lidské společnosti. Pokud češi odpovídají úsekovitě, cg odpovídá úsekovitě. My bysme ale do budoucna potřebovali, aby se dali nastavit různé mody odpovídání a například v češtině odpovídal komplexně, čímž by se odboural český nešvar.
  • Tak dnes 10. července 2023 přišel 3.5 s přeškrátáváním vlastního textu. Když se ho na to zeptám, tak odpoví, že si toho nemám všímat, ale spíš to vypadá jako by prováděl vlastní korekturu, možná nějaký pokus ze strany vývojářů. Například se ho ptám na have "juan@L5520:~$" in my a on mi odpovídá prompt "juan@L5520:$", the "" symbol což vypadá na to, že nedokázala vypsat tildu, napsal něco jiného a hned se opravil, že to škrtl.
  • Zajímavou funkcionalitou chatGPT je to, že si pamatuje předešlou komunikaci. Myslím si, že si pamatuje předešlou komunikaci jen po omezenou dobu, nebo po omezený počet slov. To mu pomáhá se držet kontextu v tom smyslu, že tazatel nemusí stále opakovat v jakém kontextu se pohybuje. Dokonce se tadle schopnost nějak odborně jmenuje a bylo by zajímavé, vyzkoušet i jiné schopnosti, které by mohli vést ke zlepšení. Dokonce si říkám, jestli tydle funkcionality, nejsou znakem inteligence, která chatbotům chybí. Protože není důvodu, aby nešlo inteligenci v budoucnu nějak strukturálně popsat, tak aby ji byly schopni používat také roboti. Jazyk a umění nám donedávna také přišlo tak abstraktní, že by to nešlo převést do nějaké logické struktury a dnes už to začínáme běžně analyzovat a učit roboty. No a ještě příklad:
    • Já: Jak se v Pythonu zadá konec řádky?
    • On: ...\n...
    • Já: A jak se zadá odsazení?
    • On:... správně odpoví, protože si pamatuje, že mluvíme o Pythonu
  • ovšem některé kontexty se robotovy těžko vtloukaj. Chci mu dát víceřádkový řetězec protože pointa dotazuje je ve víceřádkovosti. Ptám se ho jak to mám udělat a on, že jakkoliv, jen si mám vybrat. Tak sem si vybral \n a ještě mu to píšu, že to je informace pro něj a stejně to nepochopil. Tak mu to říkám znovu a on že už to chápe, ale už mlel jinou. To asi bude souviset s tím, jak ten text zpracovává. Ostatně jako lidé, neumí komplexně poskytnout informaci. A není se čemu divit, pokud se učil na textech psaných lidmi, naučil se neposkytovat kompletní informaci. Ale o tom už sem někde psal.
  • časem si člověk vycvičí způsob jak s ním komunikovat, ale musí stále vše kriticky hodnotit, protože někdy se zdá, že mele blbosti
  • oblasti jako IT a obecné znalosti (třeba to co je na wikipedii) zná dobře, ale specifické technické věci (jak funguje konkrétní model ledničky) už ne - což je jistě dáno tím, že tato data nejsou veřejně dostupná
  • je vidět, že byl trénován v USA a v kominkaci s českým mluvčím se to projevuje tím, že nedoporučuje dělat některé věci (které se v usa nedělají), ale v jiných částech světa mohou být běžné. Když je na to upozorněn, tak řekne něco ve smyslu, jo v evropě, tam to mají trošku jinak - tzn. nebude znát všechny zvyklosti ve všech regionech i třeba proto, že v některých regionech jsou různ věci napsány, ale pak to funguje jinak a robot se to nemá jak naučit
  • robot nemá logickou inteligenci, takže si neumí uvědomit, že když se něco mělo stát a už je to po tom datu, tak asi jeho závěr nebude správný
    • to by mohla řešit symbolická AI, což je vlastně použítí logických operátorů na zjednodušené objekty (symboly) - něco takové vyvíjí IBM a míchá to s klasickou AI takže vzniká neurosymbolic AI. V tomto případě by tedy každé tvrzení mohlo být zkontrováno operátorovou logikou. Z mého pohledu to ale bude zpomalovat výkon a tak by to chtělo vložit již doprostřed procesu, nebo dokonce na začátek
    • je to určitý způsob jak možná ai naučit inteligentně myslet, jinak by se museli hledat zákonitosti logického uvažování, ale zdá, se že logické operace mohou být tím logickým uvažováním, které má i člověk - je to na hlubší studium dokumetů.
  • zvládá překlepy, nebuzeru a neposmívá se jako češi
  • a dokonce zvládá plyně přecházet mezi jazykama a někdy se mu stává to samé co mě, že je dotaz položen v jednom jazyku, ale on odpovídá v druhém nebo v mixu
  • pomáhá s některými live decision věcmi a hlavně je dobrou a více méně nezaujatou protistranou, pokud má člověk problém najít, někoho, kdo by mu naslouchal, tak může využít robota
  • problém je, že když se přepnu z varianty 4 do 3, tak trojka, neví co se řešilo ve čtyřce a neumí na to navázat
  • v podstatě mám radši verzi 3.5, protože je rychlejší a verze 4 je de facto stejný model, který má jen jiný druh argumentace (to bych ocenil), ale co neocením moc je hledání na webu v reálném čase, které pak tu argumentaci může ubíjet, protože dostáváte něco co našel, ale zároveň byste chtěli spíše jeho argumenty. Dalle 2 ve verzi 4 je také k ničemu, protože furt je to takový Small Ukraninian Boy. Uvidíme, jestli verze Dalle 3 přinese zásadní změnu, ale zatím to nepředpokládám, protože to by musel být násobně větší model oproti chatGPT 3.5 - jde o to, že ta grafika žere více dat a větší výpočetní výkon, než text.