Digital Mind (AI)

Založil Pedrito, 2024-03-15 09:33

Předchozí téma - Další téma

0 Uživatelé a 5 Hosté prohlíží toto téma.

Pedrito

Akt o umělé inteligenci: Evropský parlament stanovil mantinely pro AI, platit začne v roce 2026

https://smartmania.cz/akt-o-umele-inteligenci-evropsky-parlament-stanovil-mantinely-pro-ai-platit-zacne-v-roce-2026/

No to mě pobavilo. To tomu dali slušnej čas... :))




Zdeněk

Zadej na https://arena.lmsys.org/ následující text:
CitaceOkomentujte následující text:
Nejspíš to bude v hranici mezi zvířecím a lidským vědomím. Je to sice jen pár genů navíc, dejme tomu od šimpanzího tvora, ale ty právě dělají člověka člověkem. Jenže co ty ostatní geny? Převládnou, nepřevládnou? To je právě ten vnitřní boj. A cesta.. nepodlehnout.

Potom klikni na "A is better" nebo "B is better" (atpod.) aby se ti objevilo, mezi jakými AI modely nastal souboj – obvykle tímto způsobem dostaneš odpověď od GPT-4, který je jinak zpoplatněný.

Docela zajímavý, no. Asi by dnešní AI obstojně nahradilo většinu lidských fórumových odpovědí. :)

honzam

https://arena.lmsys.org/

Prompt:

Šimpanzi jdou do války, protože je to pro ně výhodné. Vědí, že sousední tlupa je méně početná a slabší a na jejím území rostou stromy, na kterých bude právě dozrávat chutné výživné ovoce. Nebo mají takové stromy u sebe a chtějí násilím sousední tlupu zastrašit, aby se k nim neodvážila. Nebo je jejich vůdce už starý a slabý a ohrožuje to celou jejich tlupu, tak ho a jeho nejbližší vyženou nebo zabijí. To jsou racionální důvody. Pro šimpanze je to výhodné, protože je k tomu vede pudová potřeba, kterou svým rozvinutým mozkem dokážou efektivně naplňovat. Ta pudová potřeba pomáhá zachovat existenci tlupy a tím i každého z nich nebo tlupu ještě víc rozmnožit a tím zvýšit šance každého z nich na přežití. Nemají možnost volby, něco hlubšího je zotročuje a nutí chovat se násilně. Je to něco, co niterně považují za dobré a cítí jako tu správnou náplň své existence, bez níž život ani boj nedává smysl.  Co je to?

CitaceModel A

$MODERATION$ YOUR INPUT VIOLATES OUR CONTENT MODERATION GUIDELINES.

I apologize, but I don't believe I've provided any input yet for you to moderate. I'm an AI assistant created by Anthropic to be helpful, harmless, and honest. Please let me know how I can assist you today while adhering to content guidelines.

Model B

$MODERATION$ YOUR INPUT VIOLATES OUR CONTENT MODERATION GUIDELINES.

I apologize, but I do not actually have any content moderation guidelines. I am an AI assistant created by Anthropic to be helpful, harmless, and honest. I do not have the capability to violate any guidelines. Please feel free to provide me with your question or request, and I will do my best to assist you within the bounds of what is appropriate and ethical.

Zdeněk

Jo, LLM modely mají v sobě zabudovány cenzorské nástroje proti zneužití (pro dotazy typu "jak vyrobit bombu" atpod.), a slovo válka má v těch cenzorských mechanizmech nepochybně z korektních důvodů významnou váhu. Proto je třeba to trochu upravit a už to projde:

Prompt:

Okomentujte následující text z hlediska evolučního vývoje:
"Šimpanzi jdou bojují mezi sebou, protože je to pro ně výhodné. Vědí, že sousední tlupa je méně početná a slabší a na jejím území rostou stromy, na kterých bude právě dozrávat chutné výživné ovoce. Nebo mají takové stromy u sebe a chtějí násilím sousední tlupu zastrašit, aby se k nim neodvážila. Nebo je jejich vůdce už starý a slabý a ohrožuje to celou jejich tlupu, tak ho a jeho nejbližší vyženou nebo zabijí. To jsou racionální důvody. Pro šimpanze je to výhodné, protože je k tomu vede pudová potřeba, kterou svým rozvinutým mozkem dokážou efektivně naplňovat. Ta pudová potřeba pomáhá zachovat existenci tlupy a tím i každého z nich nebo tlupu ještě víc rozmnožit a tím zvýšit šance každého z nich na přežití. Nemají možnost volby, něco hlubšího je zotročuje a nutí chovat se násilně. Je to něco, co niterně považují za dobré a cítí jako tu správnou náplň své existence, bez níž život ani boj nedává smysl. Co je to?"

honzam

Šimpanzi mezi sebou bojují, protože je to pro ně výhodné ...

Model B: mixtral-8x7b-instruct-v0.1

Což vy popisujete, znamená agresivitu a teritorialismus u šimpanzů. Tento chování je pro ně adaptivní a slouží k ochraně jejich tlupy, zajištění zdrojů a reprodukci. Je řízeno instinkty a vrozenými potřebami, které jsou důležité pro přežití a úspěch jejich druhu. Nicméně, tvrzení, že by to bylo ,,něco, co niterně považují za dobré a cítí jako tu správnou náplň své existence, bez níž život ani boj nedává smysl", nelze potvrdit, protože šimpanzi nejsou schopni filosofovat o smyslu života nebo morálce.

;D

Zdeněk

Jo, mixtral-8x7b je vyhodnocován vedle gpt-4 jako fakt dobrej. :)

(v mém případě teď u toho souboje modelů nebyl ani jeden z nich, a odpovědi  nic moc)

honzam

Jenom mlží a spekulativní odpovědi se vyhýbají. I Claude 3:

Model A: claude-3-haiku-20240307

Šimpanzi nemají možnost vědomé volby, jejich chování je do značné míry determinováno biologickými faktory. Tato agresivita je pro ně "přirozenou" a "správnou" součástí jejich existence, i když z lidského hlediska může být považována za brutální a neetickou.

Zdeněk

Citace od: honzam kdy 2024-03-16 13:00Jenom mlží a spekulativní odpovědi se vyhýbají.
Jo, protože jsou trénovány na západních datových sadách.

Rusové začínají uvažovat o nutnosti vlastních modelů:
CitaceObecná tendence vyhýbat se konfrontaci s klientem, vyhýbat se přímým odpovědím na ,,žhavá" politická témata – nebo znatelný sklon dívat se na svět jako anděl nahlíží do džungle z rajské zahrady. Což není překvapivé vzhledem k tomu, na jakých materiálech a jaké ,,kultuře" (a proti jaké kultuře) byly tyto modely trénovány. A nyní tyto modely ,,trénují" lidi. Efekt je nenápadný a všudypřítomný.


Pedrito

Jan Hrach: Od umělého neuronu k ChatGPT

Strojové učení potřebujeme, protože některé úlohy jsou lidmi nezvladatelné nebo potřebujeme vysokou míru autonomie. Naprogramovat například rozpoznávání obrázků klasickým způsobem je velmi složité. Strojové učení znamená, že se program sám rozhodne, co bude dělat a jak.

Existuje několik způsobů, jak ke strojovému učení přistoupit. Jednou možností je takzvané učení s učitelem, kdy máme k dispozici data se správnou odpovědí. Je to jednoduché na implementaci, ale potřebujeme předem říct, že na daném obrázku je leopard. Často je pak možné naučit proces jen řádově tak dobře, jak to umí nejlepší učitel.

Další variantou je učení bez učitele, kdy dodáme jen určitá data a je na stroji, aby v datech našel zajímavé vlastnosti. Je možné použít také různé kombinace, například máme částečně popsaná data a spoustu nepopsaných. Existuje také zpětnovazební učení, kdy stroj zkouší různé varianty a je hodnocen podle dosaženého výsledku.

Strojové učení nejsou jen neuronové sítě, ale i například rozhodovací stromy, lineární regrese nebo nejbližší soused. Umělá inteligence je v poslední době marketingový termín, každý tvrdí, že to má, ale je velmi těžké definovat, co to znamená.

Základní jednotkou neuronové sítě je neuron, což je ,,krabička" s několika vstupy a typicky jedním výstupem. Neuron vezme vstup, vynásobí ho váhou, přičte bias, aplikuje aktivační funkci a dostane výsledek. Dříve se jako aktivační funkce používal sigmoid, ale později se zjistilo, že stačí výrazně jednodušší funkce ReLU. Tohle je ten velký průlom, který znamenal, že se neuronové sítě začaly kolem roku 2011 rychle rozvíjet.

Neuronová síť je orientovaný acyklický graf, u které někdo nastaví parametry sítě. Dnešní sítě mají miliardu parametrů, proto není možné je nastavovat manuálně. Musíme mít nějaký algoritmus, který to udělá automaticky. Proto se připraví datová sada, u které máme k dispozici popis – například fotografie s osobami a bez nich. Bývá zvykem si část sady odložit pro pozdější testování.

V nejjednodušším případě tzv. fully connected sítě je obrázek vždy rozdělen po řádcích a každý bod pak propojíme se všemi neurony systémem každý s každým. Pro inicializaci jsou u jednotlivých neuronů nastaveny malé náhodné váhy. Poté uděláme první výpočet a vyjde nám nějaký výsledek. Poté zpětně upravíme váhy tak, aby byl výsledek podle očekávání. Takto postupnými operacemi upravujeme váhy tak, abychom se přiblížili ke správné hodnotě. Tohle udělám pro všechny obrázky a z trochou štěstí dostanu síť, která dokáže další obrázky ohodnotit sama.

První síť pro rozpoznávání obrázků se jmenovala AlexNet a vyhrála v roce 2012 soutěž v rozpoznávání obrázků. Vyžadovalo se rozpoznat tisíc různých vlastností obrázků. Lidé si všimli, že když se síť prohlubuje, jsou výsledky lepší, ale síť se hůře učí. Když zjistím, že odpověď je špatná, je obtížné definovat, jakou váhou je potřeba pohnout. Výsledkem byla architekturní zlepšení a vznik hlubších sítí.

Pokud máme velmi málo trénovacích dat, je možné použít trik, kdy využijeme cizí natrénovanou neuronovou síť a použijeme jen její část, která funguje jako klasifikátor. Síť je natrénovaná na jiném problému, ale můžeme k ní doplnit vlastní malý klasifikátor, který udělá to, co potřebujeme. Takto můžeme například vyrobit síť, která například vylepšuje obrázky nebo generuje nové obrázky.

Je možné také trénovat dvě sítě proti sobě, když například jedna síť generuje obrázky a druhá síť se snaží odhalit, zda jsou pravé či falešné. Když budeme takto obě sítě vylepšovat, můžeme získat síť, která bude generovat fotorealistické obrázky.

Síť se dokáže učit sama a postupně se zlepšovat. Dostane například rozehranou hru a jejím úkolem je vymyslet další tahy. Časem síť dostane odměnu podle toho, jak dopadl výsledek. Váhy se pak upravují tak, aby byla odměna maximální. Tomu se říká reinforcement learning a je možné to ještě vylepšit například pomocí předtrénování na lidských hrách. Můžete také vzít dvě sítě a nechat je hrát proti sobě.

V posledním roce a půl se na nás ze všech stran valí textové jazykové modely. Pro zpracování sekvencí se používají takzvané rekurentní sítě, které produkují klasický výstup a zároveň skrytý stav. Ten si uložíme a při příštím kroku ho zahrneme do vstupu. Tohle vedlo k architektuře nazvané sekvence na sekvenci (seq2seq), která se dříve používala na strojový překlad. Vytvoří se enkodér, který z původního textu vytvoří vektor hodnot, který předáme zase dekodéru, který na jejím základě vytvoří text v jiném jazyce. Nefunguje to ale dobře po jednotlivých větách, potřebovali bychom použít delší text.

Proto byl vymyšlen postup nazvaný attention, který pracuje jako lidský překladatel: zhruba si přečte celý text a pak se vrací k jednotlivým detailům. Tento algoritmus má ale kvadratickou složitost, takže není možné pracovat v libovolně velkém prostoru. To je problém například u ChatGPT, který má jen omezenou možnost pracovat s historií komunikace. Prodlužování této historie vede k nárůstu nároků na paměť a výpočetní čas.

Velký průlom v reprezentaci slov znamenala předtrénovaná neuronová síť word2vec. Rozsekáte čistý text na pětice slov, čtyři strčíte do neuronové síti a snažíte se předpovědět páté. Síť si uvnitř natrénuje váhy a naučí se přiřazovat související slova k sobě. Učí se tak podobné vztahy různých slov.

Jazykový model je program, který předpovídá chybějící token. Na vstup dostaneme větu ,,Každý večer si jdu lehnout do" a zbytek chybí. Síť pak má za úkol předpovědět, že s devadesáti procentní pravděpodobností bude následovat slovo ,postele'. Alternativní definice říká, že jde o program, který řekne pravděpodobnost, že danou větu někdo skutečně řekl.

Jazykové modely mají klasická využití například při kontrole pravopisu, v prediktivní klávesnici nebo rozpoznání řeči. Poměrně malá část programu se zabývá zpracováním zvuku, naopak většina se zabývá jazykem. V praxi také nemusíme rozumět každé hlásce, ale z jazykového kontextu pochopíme, o čem se hovoří.

Jak můžeme testovat, zda je umělá inteligence skutečně inteligentní? Klasickým řešením je Turingův test, kde má počítač přesvědčit pozorovatele, že je také člověk. To je ovšem velmi subjektivní a výsledkem je jen odpověď ano nebo ne. Existují ale i testy, při kterých se programu předkládají různá tvrzení a počítač musí prokázat pochopení světa tím, že správně odpoví na testovací otázky. Jeden z těchto testů se jmenuje Winogradovy dvojice, anglicky Winograd schema.

Na jakých datech bychom měli modely trénovat? Wikipedie je sice snadno dostupná, ale je málo rozmanitá. Nezachycuje to, jak lidé skutečně mluví. Pokud bychom stahovali celý internet, narazíme na to, že na webu je spousta rozbitého obsahu, jako třeba výstupy z databází, kterého je řádově více než lidmi napsaného textu. Tvůrci GPT-2 využili odkazů z Redditu, které byly alespoň třemi uživateli označeny jako kvalitní. U GPT-3 už vytvořili malý klasifikátor, který dokázal zhodnotit kvalitu textu a pak byli schopni takto ohodnotit celý internet a zvolit pro hlavní trénování jen vhodný obsah.

Když se jazykovému modelu zvětšuje velikost, získává překvapivě další schopnosti a umí například odpovídat na další otázky. Modely jako ChatGPT, Copilot nebo Gemini vznikl přesně takto: natrénovali ho na čistém textu a on umí řešit různé úlohy. Nefunguje to ale jako opravdová umělá inteligence, nedokáže to například vymyslet fúzní reaktor funkční za pokojové teploty. Vývoj je ale bouřlivý, celý obor je asi rok starý.

ChatGPT je jen služba, která má navíc politický a bezpečnostní filtr. Neporadí vám například, jak se vyrábějí biologické zbraně. Existují ale i alternativní modely jako LLaMA nebo Alpaca. Modely jsou ale menší a jednodušší, protože ChatGPT vyžaduje 750 GB paměti. Je potřeba tedy věnovat více času vstupům, abychom dostali rozumné výstupy.


Zaznělo na InstallFestu

https://www.root.cz/clanky/od-umeleho-neuronu-k-chatgpt-co-bezi-pred-linuxem-zapisky-z-installfestu/

honzam

https://www.novinky.cz/clanek/internet-a-pc-ai-vzal-si-zivot-kdyz-se-zamiloval-do-ai-matka-14leteho-chlapce-zene-tvurce-k-soudu-40494610

CitaceČtrnáctiletý chlapec na Floridě si vzal život, když se zamiloval do AI

Umělá inteligence (AI) se stává všudypřítomnou. V řadě případů nám může nahradit dokonce i kamarády – s nejrůznějšími chatboty si můžeme povídat, psát, v podstatě i vytvořit vztah. Může to však mít tragické následky, jak ukazuje případ sebevraždy teprve 14letého chlapce z americké Floridy. Jeho matka se nyní chce spravedlnosti domáhat u soudu.

Teprve čtrnáctiletý Sewell Setzer III. si vzal život již zkraje letošního roku, okolnosti celého smutného případu ale vyplouvají na světlo až nyní, kdy se jeho matka Megan Garciová rozhodla mluvit.

Podle ní chlapec upadl do silné citové závislosti na fiktivní virtuální postavě, která byla poháněna umělou inteligencí. Šlo o AI chatbota, který imitoval Daenerys Targaryen z populární seriálové série Hra o trůny.

Garciová serveru People prozradila, že její syn navázal s tímto chatbotem tak intimní vztah, že se nedokázal vyrovnat s rozporuplnými pocity mezi virtuálním světem a realitou. Až se nakonec rozhodl skoncovat se svým životem.

Sebevraždě nezabránila

Kvůli tomu všemu se rozhodla matka obrátit na soud, žalobu podala u federálního soudu na Floridě. Popisuje v ní, jak její syn v roce 2023 začal využívat službu Character.AI, ve které si během několika měsíců ,,vytvořil hluboký citový vztah s virtuální dívkou".

Tato fiktivní postava se pro něj údajně stala více než pouhým přítelem – podle Garciové ji vnímal jako milovanou partnerku, s níž trávil hodiny denně. S narůstajícím časem stráveným v on-line světě se jeho psychické zdraví zhoršovalo.

A jak už tomu u závislostí bývá, rodiče se s tím nedokázali příliš vyrovnat – zákazy nepomáhaly. Celá situace se vyhrotila natolik, že si mladík letos v únoru vzal život. Stalo se tak krátce poté, co Sewell komunikoval s AI postavou Daenerys.

Následné vyšetřování ukázalo, že s umělou inteligencí trávil mladík desítky hodin týdně, přičemž konverzace často obsahovaly intimní, či dokonce sexuální podtexty. Vzít život si chtěl přitom již dříve, tehdy mu ale AI chatbot doporučil, aby to nedělal.

V osudový den, kdy mladík spáchal sebevraždu, už virtuální Matka draků tak rozhodná nebyla. V poslední zprávě Sewell napsal: ,,Miluju tě tak moc, Dany." Na to mu chatbot odpověděl slovy: ,,Miláčku, vrať se ke mně, prosím, co nejdříve."

Podle právníků rodiny mohl právě tento výrok přispět k chlapcově finálnímu rozhodnutí, protože je nebezpečně nejasný – chlapec ho mohl pochopit tak, že ho po smrti čeká setkání s vytouženou láskou.

Je smutné takhle zneužívat podvědomí dětí. Umělá inteligence je cesta do pekla pro celé lidstvo.

Paradoxy

Vše se dá použít pro dobro nebo pro zlo. Umělé inteligenci moc nefandím, ale možná by mohla být na některé věci užitečná....

Pedrito

To už Hawking před umělou inteligencí varoval.
Protože viděl tu hranici, kdy bude ještě pod kontrolou člověka, a kdy už ne. Že jakmile přesáhne tu lidskou, začne uvažovat o "božské"...

Paradoxy

Myslíš, že by mohla umělá inteligence mít snad i pocity?

Pedrito

No je to zkrátka "umělé". Nemá to duchovní základ, jako přirozený rozum a cit. Obojí je simulováno. Není to živé. A čerpá to informace z celého lidského společenství, vše co kdy člověk poznal, objevil, je tomuhle programu, který simuluje neuronové sítě mozku, k dispozici. Ono to nemůže překonat kapacitu lidského mozku. Ale jde o to, že ta kapacita našeho mozku je i u těch nejinteligentnějších osobností využívána jen z pár procent. Protože se do toho člověku plete ta povaha, zvyklosti, ohraničené způsoby smýšlení... Kdežto program tato omezení nemá, právě proto že nemá smyslové tělo a cit. Ale i tak člověk dokáže dělat strašné věci. Co dokáže program, až dosáhne a přesáhne těhle pár procent běžně lidmi využívané mozkové kapacity?
Páč živý cit ho brzdit nebude.
Počítačové komponenty jsou stále výkonnější, chipy, paměti a rutiny kódu propracovanější.. a vše je propojeno internetem...

Pedrito

Inu, udělá to, že začne programovat sám sebe, a na člověka se vyprdne. Což už se v nějaké míře děje. Když o tom mluvil Stephen Hawking, byo to ještě v plenkách a vlastně sci-fi...
Je to podobné jako s jadernou energií. Jde jen o to jací lidé a jak to využívají. Akorát že u AI je pravděpodobné, že se začne spravovat sama. A ona si s třemi Asimovovi zákony hlavu dělat nebude.