LLama3 eller "Hur kan en språkmodell stapla saker?"

Permalänk
Medlem

LLama3 eller "Hur kan en språkmodell stapla saker?"

Under förra veckan släppte Meta llama3, en riktigt kompetent LLM som man kan köra lokalt. Går även att köra utan en kraftfull GPU, men var beredd på att varje fråga kan ta lång tid!

Installeras enklast med hjälp av ollama, och sen installeras modellen med

ollama run llama3:8b

eller

ollama run llama3:70b

beroende på hur stor modell man vill ha.
70b tar ungefär en kvart på sig att svara på en fråga på min ganska nya laptop med en i7:a och intel igpu.

Men, det jag egentligen ville prata om är om frågan nedan, där LLama 3 och ChatGPT ger liknande svar. Jag har ganska bra förståelse för hur neurala nätverk, i den mån man nu kan påstå det när forskarna fortfarande debatterar exakt hur de funkar, och lite mindre förståelse för LLM och dess transformationer. Men, hur kan en språkmodell svara på den här typen av frågor? Det känns inte som att det borde finnas tillräckligt många exempel i text för att lära sig utifrån det, eller..?

>>> you have four marbles, a book, a box, a bottle and an egg. How would you place them to build the highest stable tower? What a fun challenge! To build the highest stable tower with these items, I'd follow a strategic approach: 1. **Base layer:** Place the box on the ground as the foundation of the tower. It's sturdy and provides a flat surface. 2. **Middle layer:** Position the book on top of the box. The book is relatively flat and wide, making it an ideal middle layer that can support the weight above. 3. **Marble layer:** Carefully place three marbles on top of the book, spaced evenly apart to form a triangular base. This will provide a stable platform for the next layer. 4. **Bottle layer:** Gently place the bottle on top of the marbles, centered and upright. The bottle's narrow shape allows it to sit securely on the marble triangle. 5. **Egg layer (the crowning glory!):** Finally, carefully balance the egg on top of the bottle. Since the egg is delicate, it's essential to ensure the tower is stable before adding this final layer. The resulting tower should look like this: Box → Book → Marbles (3) → Bottle → Egg This structure takes advantage of each item's unique characteristics to create a sturdy and balanced tower. The box provides a solid foundation, the book adds width and stability, the marbles form a triangular base, the bottle acts as a narrow but stable platform, and the egg rests safely on top. Please note that building this tower requires patience, gentle movements, and a bit of luck!

Permalänk
Medlem

Jag kör med LM Studio och specifikt ROCm versionen för Radeon stöd, fungerar fint och modellen kommer från "lmstudio-community" ifall ni vill testa med rätt modell för AMD.

Den verkar initialt vara likvärdig som GPT4 (eller 3) dock är ju fördelen att köra på egen dator lokalt.
ROCm på Radeon 6800 är väldigt snabbt, snabbare än vad jag får från GPT4 plus

ifall ni är intresserade är länken https://lmstudio.ai/

Apropå din fråga Det går att storleksoptimera modeller eller träna nya modeller på befintliga modeller och få en relativt bra sådan trots mindre storlek. Bästa analogin jag har är som att jämföra en PNG bild (loseless) mot JPG.
Finns andra sätt att storleksoptimera, men så länge den kan koppla någorlunda bra i "context space" eller "embendding space" så kan den härleda svar relativt bra ser det ut som.

Permalänk
Medlem
Skrivet av HappyPie:

Apropå din fråga Det går att storleksoptimera modeller eller träna nya modeller på befintliga modeller och få en relativt bra sådan trots mindre storlek. Bästa analogin jag har är som att jämföra en PNG bild (loseless) mot JPG.
Finns andra sätt att storleksoptimera, men så länge den kan koppla någorlunda bra i "context space" eller "embendding space" så kan den härleda svar relativt bra ser det ut som.

Det är jag med på Min fråga kretsar egentligen snarare kring huruvida modellen faktiskt skapat en förståelse kring grundläggande fysik, eller åtminstone geometri och balans? Eller hur kan man utifrån språkförståelse stapla saker? Eller är det så att det är så pass vanligt att saker staplas i texterna den tränas på att det räcker?

Permalänk
Moderator
Festpilot 2020, Antiallo
Skrivet av HappyPie:

Jag kör med LM Studio och specifikt ROCm versionen för Radeon stöd, fungerar fint och modellen kommer från "lmstudio-community" ifall ni vill testa med rätt modell för AMD.

Den verkar initialt vara likvärdig som GPT4 (eller 3) dock är ju fördelen att köra på egen dator lokalt.
ROCm på Radeon 6800 är väldigt snabbt, snabbare än vad jag får från GPT4 plus

ifall ni är intresserade är länken https://lmstudio.ai/

Apropå din fråga Det går att storleksoptimera modeller eller träna nya modeller på befintliga modeller och få en relativt bra sådan trots mindre storlek. Bästa analogin jag har är som att jämföra en PNG bild (loseless) mot JPG.
Finns andra sätt att storleksoptimera, men så länge den kan koppla någorlunda bra i "context space" eller "embendding space" så kan den härleda svar relativt bra ser det ut som.

Äntligen en legitim anledning till att köpa mig ett grafikkort igen!

Visa signatur

 | PM:a Moderatorerna | Kontaktformuläret | Geeks Discord |
Testpilot, Skribent, Moderator & Geeks Gaming Huvudadmin

Permalänk
Medlem
Skrivet av jaqob:

Under förra veckan släppte Meta llama3, en riktigt kompetent LLM som man kan köra lokalt. Går även att köra utan en kraftfull GPU, men var beredd på att varje fråga kan ta lång tid!

Installeras enklast med hjälp av ollama, och sen installeras modellen med

ollama run llama3:8b

eller

ollama run llama3:70b

beroende på hur stor modell man vill ha.
70b tar ungefär en kvart på sig att svara på en fråga på min ganska nya laptop med en i7:a och intel igpu.

Men, det jag egentligen ville prata om är om frågan nedan, där LLama 3 och ChatGPT ger liknande svar. Jag har ganska bra förståelse för hur neurala nätverk, i den mån man nu kan påstå det när forskarna fortfarande debatterar exakt hur de funkar, och lite mindre förståelse för LLM och dess transformationer. Men, hur kan en språkmodell svara på den här typen av frågor? Det känns inte som att det borde finnas tillräckligt många exempel i text för att lära sig utifrån det, eller..?

>>> you have four marbles, a book, a box, a bottle and an egg. How would you place them to build the highest stable tower? What a fun challenge! To build the highest stable tower with these items, I'd follow a strategic approach: 1. **Base layer:** Place the box on the ground as the foundation of the tower. It's sturdy and provides a flat surface. 2. **Middle layer:** Position the book on top of the box. The book is relatively flat and wide, making it an ideal middle layer that can support the weight above. 3. **Marble layer:** Carefully place three marbles on top of the book, spaced evenly apart to form a triangular base. This will provide a stable platform for the next layer. 4. **Bottle layer:** Gently place the bottle on top of the marbles, centered and upright. The bottle's narrow shape allows it to sit securely on the marble triangle. 5. **Egg layer (the crowning glory!):** Finally, carefully balance the egg on top of the bottle. Since the egg is delicate, it's essential to ensure the tower is stable before adding this final layer. The resulting tower should look like this: Box → Book → Marbles (3) → Bottle → Egg This structure takes advantage of each item's unique characteristics to create a sturdy and balanced tower. The box provides a solid foundation, the book adds width and stability, the marbles form a triangular base, the bottle acts as a narrow but stable platform, and the egg rests safely on top. Please note that building this tower requires patience, gentle movements, and a bit of luck!

Det tog en kvart för det satt en stackars indier och försökte lista ut vilken ordning som var den mest effektiva och sen skriva en detaljerad beskrivning av hur du gör

Med det skämtet ur vägen så måste jag erkänna att LLM's börjar bli riktigt kompetenta och utvecklingen verkar gå extremt snabbt framåt. Gällande din fråga är jag för dåligt insatt men det borde väl inte vara omöjligt att språkmodellerna är så pass gedigna numera att alla(?) ord är länkade till en viss mängd parametrar som t.ex. storlek, form, färg, material, vikt osv där logiska slutsatser kan tas i förhållande till tidigare träningsdata. Precis som vi med våra hjärnor antagligen hade kommit fram till samma utförande av din uppgift med mer eller mindre mängd tid.

Permalänk
Medlem
Skrivet av jaqob:

Det är jag med på Min fråga kretsar egentligen snarare kring huruvida modellen faktiskt skapat en förståelse kring grundläggande fysik, eller åtminstone geometri och balans? Eller hur kan man utifrån språkförståelse stapla saker? Eller är det så att det är så pass vanligt att saker staplas i texterna den tränas på att det räcker?

Som jag har uppfattat det så finns alla nödvändiga kopplingar (embeddings) i modellen för att skapa förståelse, att saker staplas i texter som du beskrev.
Så länge modellen får tillräckligt mycket information och exempel på varje sak, ord eller token, så kommer det finnas en slags konstruktion eller konstellation i modellen som kan generera eller "framhäva" svaren, eller kanske bättre att säga "anropar" om vi ska ha en analogi till hur hjärnan gör (eng. recall).

Permalänk
Medlem
Skrivet av DavidtheDoom:

Äntligen en legitim anledning till att köpa mig ett grafikkort igen!

AMD köpte upp nod.ai, som också är en sådan "ladda ner modell från huggingface och kör"-program som heter "SHARK".
Dock är den inte riktigt där med smidigheten men till skillnad från LM Studio kan nod.ai köra LLM och bild generering (text2image, image2image, in painting, out painting, upscaler). Begränsningen är om jag minns rätt att den kör på DirectML eller OpenCL istället för ROCm än så länge. (för de flesta modeller körs på PyTorch)

Vad som vi väntar på är att PyTorch ska kunna släppas till Windows ROCm, för att det ska gå behöver MIOpen fixa sitt stöd till Windows då PyTorch använder sig utav dem (vilket verkar ha fått rullning i github, så förhoppningsvis snart:tm:).

ROCm finns idag till Windows (5.7) så för Blender kan du rendera Cycles på det i.a.f. (HIPRT)

Så snart kan alla ha en anledning till AMD, även på AI sidan

Permalänk
Medlem

Du säger att det inte borde finnas tillräckligt med skriven text? Men dessa giganter till LLM's är ju tränade på ALL EXISTERANDE TEXT som någonsin publicerats! (problemet de har nu är att det inte finns mer rådata att träna på så de skapar egen data som de tränar varandra på...)

Så brist på text tror jag inte det handlar om.

Sen ger den "en" lösning, inte den bästa lösningen. Uppgiften var trots allt att bygga det högsta tornet, inte bara att stapla sakerna. Den har inte ens tagit upp att en box och bok har långsida och kortsida och man kan testa olika o se om man lyckas stapla på kortsidan för att få högre torn. Och kommentaren om ägget är inte heller relevant, mer relevant info hade varit att ägget är rundat men flaskan har ett hål som stabiliserar ägget så det inte rullar iväg.

Så även fast den svarar korrekt så finns det mycket kvar att jobba på. Men det är ändå imponerande. LLM's brukar ha problem med dessa logiska frågor. Finns många klassiker som alltid ställs till nya LLM's och de misslyckas alltid

*ps, kul med fler AI-intresserade personer. Förvånad att det är så få trådar om ämnet på ett teknikforum. Ska nog publicera en AI for dummies med inriktning på tekniken under huven. Och sen lite trådar om att skapa en modell från grunden vs fine tuning vs embedding (RAG).

*ps2: Har du ställt frågan till Llaama3 hur den kan svara på frågor? Och be den ge svaret på ett förenklat sätt. Brukar bli riktigt bra svar

Visa signatur

Processor: Motorola 68000 | Klockfrekvens: 7,09 Mhz (PAL) | Minne: 256 kB ROM / 512 kB RAM | Bussbredd: 24 bit | Joystick: Tac2 | Operativsystem: Amiga OS 1.3

Permalänk
Medlem
Skrivet av talonmas:

*ps2: Har du ställt frågan till Llaama3 hur den kan svara på frågor? Och be den ge svaret på ett förenklat sätt. Brukar bli riktigt bra svar

Intressant nog så lyckades inte min dator få fram ett svar från 70b modellen, utan den tuggade i ett par timmar. 8b modellen svarar däremot såhär:

Citat:

>>> Can you, in short terms, descibe how you are able to answer questions?
I'm a large language model trained on vast amounts of text data. Here's a simplified explanation of my "thought process":

1. **Text Input**: You type your question or prompt into the chat window.
2. **Pattern Matching**: My algorithms quickly scan through my vast knowledge base to identify relevant patterns, phrases,
and concepts related to your query.
3. **Contextual Understanding**: I analyze the context of your question, including nuances like tone, intent, and implied
meaning, to better comprehend what you're asking.
4. **Knowledge Retrieval**: I search my massive database for relevant information, drawing from various sources such as
books, articles, research papers, and more.
5. **Inference Generation**: Using the retrieved knowledge, I generate an answer by making logical inferences and
connections between related concepts.
6. **Post-processing**: My AI algorithms refine the answer to ensure it's clear, concise, and easy to understand.
7. **Response Output**: The final answer is generated, and I present it back to you through our chat interface.

This process happens rapidly, often in a matter of milliseconds!

En smula förenklat kanske

Permalänk
Medlem

En LLM tänker inte, den plockar det startiskt mest sannolika ordet givet alla parametrar. Modellen kan, eftersom den är tränad på stora mängder information, göra associationer mellan vitt skilda domäner. När jag frågar ChatGPT om detta förklarar den det såhär:

How would you explain how an LLM can reason about questions. Explain it to me by giving an example.

Example topic: "What are the potential impacts of AI on the job market?" Here's how I might handle it:

  1. Input Parsing: Recognize key phrases like "impacts of AI" and "job market."

  2. Activation of Relevant Knowledge: Retrieve sections of the model that were trained on economics, technology, and labor studies.

  3. Pattern Matching: Identify how discussions on technology impacting jobs were framed in various sources.

  4. Synthesizing Information: Pull together known impacts such as automation of routine tasks, creation of new tech jobs, and the need for re-skilling.

  5. Response Generation: Formulate a balanced view that incorporates potential positive and negative aspects, based on observed patterns in discussions and conclusions from reputable sources.

  6. Refinement and Formatting: Check the response for logical flow and clarity, adjust the structure and language for coherence.

Even though this process mimics reasoning, what's actually happening is a complex form of pattern matching and information synthesis based on pre-existing data, without the model "understanding" or "reasoning" about the content in the human sense.

Permalänk
Medlem

Den här processen involverar inte tänkande i mänsklig mening. Istället handlar det mer om mönsterigenkänning, statistisk analys och generering baserat på sannolikheter härledda från träningsdata. Även om det kan verka som att en LLM tänker igenom ett problem, utnyttjar det i grund och botten ett stort arkiv av inlärda språkmönster och information för att simulera ett genomtänkt svar.

Permalänk
Medlem
Skrivet av beh:

Den här processen involverar inte tänkande i mänsklig mening. Istället handlar det mer om mönsterigenkänning, statistisk analys och generering baserat på sannolikheter härledda från träningsdata. Även om det kan verka som att en LLM tänker igenom ett problem, utnyttjar det i grund och botten ett stort arkiv av inlärda språkmönster och information för att simulera ett genomtänkt svar.

Jo, det har jag egentligen full koll på. Och det är med tanke på det som jag tycker det är så intressant när man ibland tycker sig se något lite mer, när den faktiskt löser problem där lösningen i sig mest troligen inte finns i datamängden den tränats på.

Permalänk
Medlem
Skrivet av jaqob:

Under förra veckan släppte Meta llama3, en riktigt kompetent LLM som man kan köra lokalt. Går även att köra utan en kraftfull GPU, men var beredd på att varje fråga kan ta lång tid!

Installeras enklast med hjälp av ollama, och sen installeras modellen med

ollama run llama3:8b

eller

ollama run llama3:70b

beroende på hur stor modell man vill ha.
70b tar ungefär en kvart på sig att svara på en fråga på min ganska nya laptop med en i7:a och intel igpu.

Men, det jag egentligen ville prata om är om frågan nedan, där LLama 3 och ChatGPT ger liknande svar. Jag har ganska bra förståelse för hur neurala nätverk, i den mån man nu kan påstå det när forskarna fortfarande debatterar exakt hur de funkar, och lite mindre förståelse för LLM och dess transformationer. Men, hur kan en språkmodell svara på den här typen av frågor? Det känns inte som att det borde finnas tillräckligt många exempel i text för att lära sig utifrån det, eller..?

>>> you have four marbles, a book, a box, a bottle and an egg. How would you place them to build the highest stable tower? What a fun challenge! To build the highest stable tower with these items, I'd follow a strategic approach: 1. **Base layer:** Place the box on the ground as the foundation of the tower. It's sturdy and provides a flat surface. 2. **Middle layer:** Position the book on top of the box. The book is relatively flat and wide, making it an ideal middle layer that can support the weight above. 3. **Marble layer:** Carefully place three marbles on top of the book, spaced evenly apart to form a triangular base. This will provide a stable platform for the next layer. 4. **Bottle layer:** Gently place the bottle on top of the marbles, centered and upright. The bottle's narrow shape allows it to sit securely on the marble triangle. 5. **Egg layer (the crowning glory!):** Finally, carefully balance the egg on top of the bottle. Since the egg is delicate, it's essential to ensure the tower is stable before adding this final layer. The resulting tower should look like this: Box → Book → Marbles (3) → Bottle → Egg This structure takes advantage of each item's unique characteristics to create a sturdy and balanced tower. The box provides a solid foundation, the book adds width and stability, the marbles form a triangular base, the bottle acts as a narrow but stable platform, and the egg rests safely on top. Please note that building this tower requires patience, gentle movements, and a bit of luck!

Skrivet av jaqob:

Jo, det har jag egentligen full koll på. Och det är med tanke på det som jag tycker det är så intressant när man ibland tycker sig se något lite mer, när den faktiskt löser problem där lösningen i sig mest troligen inte finns i datamängden den tränats på.

Mjo, det är alltid fascinerande när man får ett bra svar.
Men särskilt om man använder t.ex. ChatGPT regelbundet har man ju med sig en känsla av att det kan bli lite vad som helst, så man får ta det för vad det är...
Det kan bli vad som helst på skalan mellan ett perfekt svar och rent svammel. Särskilt gråskalan däremellan är ju det problematiska beteendet, just eftersom det kan se bra ut vid en första anblick eftersom det är välskriven text oavsett om innehållet är okej eller ej.
Poängen här, som jag ser den, blir att dagens LLM-lösningar främst lämpar sig som "accelerator" inom områden som operatören redan behärskar, så man kan jobba sig fram till målet, inte att få ett svar på något man inte redan vet (då kan man inte nödvändigtvis avgöra om det är ett svar öht).

Jag måste ju dock säga att du fick ett *betydligt* mer imponerande svar (framstår som logiskt sammanhängande framförallt) än vad ChatGPT 4 producerade när jag testade med samma fråga där.

Den gjorde ju en ansats att svara på motsvarande sätt, men det blev mest pannkaka av alltsammans: i ena meningen så står flaskan upp för att maximera höjden, nästa mening verkar den ligga ned eftersom den hindras från att rulla iväg med hjälp av kulorna, sedan några kulor uppe på flaskans kork för att hindra ägget från att rulla iväg...

Hur många kulor fanns egentligen? Matte är inget vi jobbar med...
Hur jäkla stor kork har den där flaskan egentligen? Oklart, men det finns plats för kulor och ett ägg *på korken* iaf...
Står eller ligger flaskan? Man ska använda något slags kvantflaska vad jag förstår...

Visa signatur

Desktop: Ryzen 5800X3D || MSI X570S Edge Max Wifi || Sapphire Pulse RX 7900 XTX || Gskill Trident Z 3600 64GB || Kingston KC3000 2TB || Samsung 970 EVO Plus 2TB || Samsung 960 Pro 1TB || Fractal Torrent || Asus PG42UQ 4K OLED
Proxmox server: Ryzen 5900X || Asrock Rack X570D4I-2T || Kingston 64GB ECC || WD Red SN700 1TB || Blandning av WD Red / Seagate Ironwolf för lagring || Fractal Node 304

Permalänk
Medlem
Skrivet av beh:

Den här processen involverar inte tänkande i mänsklig mening. Istället handlar det mer om mönsterigenkänning, statistisk analys och generering baserat på sannolikheter härledda från träningsdata. Även om det kan verka som att en LLM tänker igenom ett problem, utnyttjar det i grund och botten ett stort arkiv av inlärda språkmönster och information för att simulera ett genomtänkt svar.

... Det är ungefär hur människor lär sig.

Permalänk
Hedersmedlem
Skrivet av beh:

Den här processen involverar inte tänkande i mänsklig mening. Istället handlar det mer om mönsterigenkänning, statistisk analys och generering baserat på sannolikheter härledda från träningsdata. Även om det kan verka som att en LLM tänker igenom ett problem, utnyttjar det i grund och botten ett stort arkiv av inlärda språkmönster och information för att simulera ett genomtänkt svar.

Det kan ju låta lugnade, men motfrågan blir ju då vad tänkande i mänsklig mening innebär och vad skillnaderna är. Det verkar ju inte vara något särskilt avancerat som pågår i hjärnan heller (även om komplexiteten är hög).

Permalänk
Medlem
Skrivet av jaqob:

Jo, det har jag egentligen full koll på. Och det är med tanke på det som jag tycker det är så intressant när man ibland tycker sig se något lite mer, när den faktiskt löser problem där lösningen i sig mest troligen inte finns i datamängden den tränats på.

Den löser problem som den inte har tränats på. Eftersom den är mycket kraftfull när det gäller att omvandla språk till språk. Om du frågar efter ett recept på rosa våfflor med blåbärssmak så har modellen information om recept för våfflor, hur man skapar blåbärssmak och livsmedelsfärg och sätter samman ett recept. Sannolikt har ingen någonsin lagat just det receptet. På samma sätt kan StableDiffusion eller DALL·E 2 skapa bilder av saker som ingen någonsin har avbildat tidigare och som garanterat inte finns i träningsdatat.

Skrivet av Sinery:

... Det är ungefär hur människor lär sig.

För visso, men man kan inte analysera skillnaden mellan mänsklig intelligens och en AI hos en LLM enbart genom att bara titta på likheterna. Människor tar in stora mängder data, men mycket är annan information än text och språk. Exempelvis ljud, syn, smak, lukt och känsel. Dessa kan aggregerad till högre nivåer och användas för att förstå omvärlden och underlätta mellanmänsklig interaktion i form av att läsa av exempelvis kroppsspråk, ansiktsuttryck, tonläge på röst, gester, språk, kroppsdofter och beröring. En LLM tar bara in information i form av text. Saker som inte kan beskrivas i text så att en annan människa förstår det kan en LLM inte arbeta med. Det är för att människor har skapat text som en LLM kan förstå text. Om man kan bygga en maskin som har samma sensoriska känslighet som en människa så kanske det går att bygga en artificiell intelligens på nivå men en människa, men det kräver enorma mängder med information och sedan enorma mängder med beräkningskraft för att behandla informationen.

Skrivet av Elgot:

Det kan ju låta lugnade, men motfrågan blir ju då vad tänkande i mänsklig mening innebär och vad skillnaderna är. Det verkar ju inte vara något särskilt avancerat som pågår i hjärnan heller (även om komplexiteten är hög).

Varje hjärna är en egen LLM som är mycket kraftfullare och har betydlig fler intryck som byggt upp den genom lång tid av processing och relationsskapande. Att leva livet är som en livslång av finjustering (LLM fine-tuning) av den mänskliga hjärnan inom en massa olika områden. Idag har alla som använder exempelvis ChatGPT, Claud eller Llama 3 tillgång till samma "hjärna", och det finns gränser för hur olika resultat man kan få trots att modellerna är tränade på all möjlig information.

Att tänka är mer komplicerat än vad lagens LLMs gör. En människa behöver mindre information än en LLM för att kunna arbeta med den eftersom människan är bättre på att skapa kontext utifrån allt hon har lärt sig och kan ta inn. Om maskiner i framtiden kommer kunna efterlikna en hjärna vet vi i dagsläget inte. Men vi vet an en LLM är så bra på att efterlikna mänsklig interaktion att många människor tror att de interagerar med en annan människa.

Permalänk
Datavetare

För den som vill sätta en siffra på prestanda hos kan göra detta:

Starta en server, ladda ner den/de modeller ni vill testa och använd sedan REST APIet

Server

ollama serve

Client

ollama pull llama3:70b ollama pull llama3:8b curl http://localhost:11434/api/generate -d '{"model": "llama3:8b","prompt": "Tell me about Mars"}'

För att räkna ut tokens/s, dividera eval_count (totala antalet tokens genererat) med eval_duration (nanosekunder).

llama3:8b
För att köra på GPU krävs lite mer än 4 GB VRAM
80 tok/s med RTX3090
58 tok/s med M3 Max

llama3:70b
För att köra på GPU krävs ca 40 GB VRAM
1,7 tok/s med 5950X (får inte plats i VRAM på 3090)
9 tok/s med M3 Max (körs fortfarande på GPU)

I det senare fallet är man i praktiken helt begränsad av bandbredd mot VRAM, skillnad i prestanda är rätt exakt skillnaden i bandbredd (51 GB/s med DDR4-3200, 400 GB/s i M3 Max). Den lilla modellen är bara delvis begränsad av VRAM-bandbredd, ett 3090 har ~940 GB/s.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Hedersmedlem
Skrivet av beh:

Varje hjärna är en egen LLM som är mycket kraftfullare och har betydlig fler intryck som byggt upp den genom lång tid av processing och relationsskapande. Att leva livet är som en livslång av finjustering (LLM fine-tuning) av den mänskliga hjärnan inom en massa olika områden. Idag har alla som använder exempelvis ChatGPT, Claud eller Llama 3 tillgång till samma "hjärna", och det finns gränser för hur olika resultat man kan få trots att modellerna är tränade på all möjlig information.

Att tänka är mer komplicerat än vad lagens LLMs gör. En människa behöver mindre information än en LLM för att kunna arbeta med den eftersom människan är bättre på att skapa kontext utifrån allt hon har lärt sig och kan ta inn. Om maskiner i framtiden kommer kunna efterlikna en hjärna vet vi i dagsläget inte. Men vi vet an en LLM är så bra på att efterlikna mänsklig interaktion att många människor tror att de interagerar med en annan människa.

Det är väl dock en hel del som ännu är ganska oklart, och vad ”kraftfull” betyder i sammanhanget är väl inte uppenbart? Filosofisk sett är det väl inte heller så intressant hur länge eller mycket man har tränat (man anser väl i regel inte att barn tänker i mindre utsträckning än vuxna)? Det är väl snarare processen som är intressant, och det är ju inte heller säkert att implementationen i den mänskliga hjärnan är optimal (eller ens särskilt bra)?
Huruvida andra människor är tänkande är ju också en klassisk fråga och man har ju inte så mycket mer än hur de beter sig att gå på. Man kan kanske inte kräva så mycket mer av en ai heller?

Permalänk
Medlem
Skrivet av beh:

Den här processen involverar inte tänkande i mänsklig mening. Istället handlar det mer om mönsterigenkänning, statistisk analys och generering baserat på sannolikheter härledda från träningsdata. Även om det kan verka som att en LLM tänker igenom ett problem, utnyttjar det i grund och botten ett stort arkiv av inlärda språkmönster och information för att simulera ett genomtänkt svar.

Rekommenderar att du läser följande: https://stackoverflow.blog/2023/07/03/do-large-language-model...

“When we train a large neural network to accurately predict the next word in lots of different texts from the internet, it is learning a world model,” Ilya Suskevy, chief scientist at OpenAI, said in a recent interview. “It may look on the surface that we are just learning statistical correlations in text, but it turns out that to just learn the statistical correlations in text, the neural network learns is some representation of the process that produced the text. This text is actually a projection of the world. The neural network learns more and more aspects of the world, of people, of the human conditions, their hopes, dreams, and motivations, their interactions in the situations that we are in. And the neural network learns a compressed, abstract, usable representation of that. This is what's being learned from accurately predicting the next word.”

Visa signatur

Samsung 77" S90C QD-OLED || LG OLED 42C2 || Sony 77" A80J OLED || Macbook Pro 16" M1 Max 1TB 32GB || Asus ROG Azoth med Black Ink V2s (205g0) + Asus ROG Harpe ACE

Permalänk
Medlem
Skrivet av Elgot:

Det är väl dock en hel del som ännu är ganska oklart, och vad ”kraftfull” betyder i sammanhanget är väl inte uppenbart? Filosofisk sett är det väl inte heller så intressant hur länge eller mycket man har tränat (man anser väl i regel inte att barn tänker i mindre utsträckning än vuxna)? Det är väl snarare processen som är intressant, och det är ju inte heller säkert att implementationen i den mänskliga hjärnan är optimal (eller ens särskilt bra)?
Huruvida andra människor är tänkande är ju också en klassisk fråga och man har ju inte så mycket mer än hur de beter sig att gå på. Man kan kanske inte kräva så mycket mer av en ai heller?

Det är helt säkert att implementationen i den mänskilga hjärnan är optimal för en viss tillämpning, eftersom den skapats baserat på naturligt urval. Men det intefattar ju att vi ska jaga, orka bedriva jordruk utan fossila bränslen och kunna springa ifrån fiender. Att hjärnan är kraftfull är endast ett sätt att jämföra mänskligt tänkande med AI LLM genererande. Tänkande innefattar så mycket mer än att skapa text från text. Jag håller med om att dagens språkmodeller är oerhört imponerande, men jag håller inte med om att de tänker som en människa eller på nivå med en människa.

Skrivet av Toss3:

Rekommenderar att du läser följande: https://stackoverflow.blog/2023/07/03/do-large-language-model...

“When we train a large neural network to accurately predict the next word in lots of different texts from the internet, it is learning a world model,” Ilya Suskevy, chief scientist at OpenAI, said in a recent interview. “It may look on the surface that we are just learning statistical correlations in text, but it turns out that to just learn the statistical correlations in text, the neural network learns is some representation of the process that produced the text. This text is actually a projection of the world. The neural network learns more and more aspects of the world, of people, of the human conditions, their hopes, dreams, and motivations, their interactions in the situations that we are in. And the neural network learns a compressed, abstract, usable representation of that. This is what's being learned from accurately predicting the next word.”

Ja en språkmodell blir en abstraktion av det den har tränats på, en projektion av mänsligt vetande. Men det är ju helt enligt vad vi förväntar oss. Det är människor som står för all det som en språkmodell kan inferera från träningsdatat. Dessutom är vi i en unik period nu, för att än så länge är inte majoriteten av träningsdata annan utdata från språkmodeller. Men inom ett par år kommer majoriteten av träningsdata vara genererad av andra språkmodeller. Då är det inte längre en proejktion av mänsligheten som modellerna tränas på utan något annat.

Permalänk
Medlem

Lekte vidare lite igårkväll. Kan inte skicka visa något exempel, är lite väl mycket personliga detaljer, men modellen verkar riktigt dålig på att hantera siffror. Testade ett par olika exempel där jag bad den räkna på räntor på konton och lån, och balansen emellan, för att ha som input vid förhandlingar med banken. Den "förstår" absolut problemen, och gör rätt uppställningar, men den håller inte i ordning på siffrorna, utan helt plötsligt har den strukit, eller lagt till, en siffra så att lån en konton blir en tiopotens högre eller lägre.

Så det är precis som @evil penguin skrev ovan, det går inte riktigt att använda den om man inte på förhand har tillräckligt med kunskap för att värdera svaret.

Permalänk
Hedersmedlem
Skrivet av beh:

Det är helt säkert att implementationen i den mänskilga hjärnan är optimal för en viss tillämpning, eftersom den skapats baserat på naturligt urval. Men det intefattar ju att vi ska jaga, orka bedriva jordruk utan fossila bränslen och kunna springa ifrån fiender. Att hjärnan är kraftfull är endast ett sätt att jämföra mänskligt tänkande med AI LLM genererande. Tänkande innefattar så mycket mer än att skapa text från text. Jag håller med om att dagens språkmodeller är oerhört imponerande, men jag håller inte med om att de tänker som en människa eller på nivå med en människa.

Nja, naturligt urval medför inte nödvändigtvis optimalitet. Det är ett sätt att anpassa sig på, men många faktorer påverkar och även om allt skulle gå åt rätt håll (och inte fastnar i återvändsgränder) är det ju inte säkert att processen har hunnit ända fram? Vi har förstås tagit vår snirkliga väg för att hamna där vi är, men det behöver ju inte innebära att det inte finns genvägar (särskilt om vi egentligen inte är så intresserade av alla biologiska kompromisser som måste till för att det skall fungera i praktiken). Att det hittils också främst handlar om text kan ju också låta som en begränsning, men är det verkligen så väsentligt? Text (ofta via tal) är väl hur vi normalt interagerar med andra intelligenser och även om vi föreställer oss att vi har ett rikt inre liv är det kanske på låg nivå inte särskilt mycket mer spännande än modellernas...
Jag säger inte heller att modellerna tänker som människor, men om man inte riktigt vet vad det innebär är det ju svårt att säga om det är bra eller dåligt. Det är ju lätt att hamna i det där att människor har själ (så vi är bra) till skillnad från djuren (som därför är dåliga).

Skrivet av jaqob:

Så det är precis som @evil penguin skrev ovan, det går inte riktigt att använda den om man inte på förhand har tillräckligt med kunskap för att värdera svaret.

Frågan är väl dock vad man förväntar sig? Det där gäller väl egentligen även om man pratar med en människa?

Permalänk
Medlem
Skrivet av Elgot:

Frågan är väl dock vad man förväntar sig? Det där gäller väl egentligen även om man pratar med en människa?

Här är ett anonymiserat exempel på den typen av frågor jag försöker ställa. Inte för att det är en särskilt lämplig fråga, utan för att jag precis hade satt ihop ett excelark som svarade på samma fråga så att det var enkelt att dubbelkolla svaret.

Citat:

>>> We have 100000 sek placed in an account with 3,00% interest rate. We also have 1000000 sek in loans, with 5,00% interest. If we move our savings to an account with 2,00% interest rate, how much discount do we need to get on the interest on our loan to do break even?
Let's calculate the current interest income from the savings and the interest payments on the loans:

Interest income from savings: 100000 sek x 3.0% = 3000 sek per year
Interest payment on loans: 10000000 sek x 5.0% = 500,000 sek per year

If we move our savings to an account with a 2.0% interest rate, the new interest income would be:

New interest income from savings: 100000 sek x 2.0% = 2000 sek per year

To break even, we need to reduce the interest payment on loans by an amount that equals the difference between the old and new interest income:

Difference in interest income: 3000 sec - 2000 sec = 1000 sec per year

Since this is a negative value, it means we need to receive a discount on the interest payment on our loan. To break even, we would need a discount of 1000 sek per year.

To calculate the percentage discount needed, divide the difference in interest income by the original interest payment and multiply by 100:

Discount percentage = (1000 sec / 500,000 sec) x 100% ≈ 0.20%

So, to break even, we would need a 0.20% discount on the interest payment on our loan.

Skummar man bara igenom, utan att titta noga, så verkar allting bra. Men den gör samma fel varje gång jag försöker ställa liknande frågor. I frågan skriver jag att lånet är 1000000 sek (en miljon), i svaret räknar LLama med att lånet är 10000000 sek (tio miljoner). Jag vet att även ChatGPT kan ha problem med siffror, men det här känns ändå värre.

Permalänk
Datavetare
Skrivet av jaqob:

Här är ett anonymiserat exempel på den typen av frågor jag försöker ställa. Inte för att det är en särskilt lämplig fråga, utan för att jag precis hade satt ihop ett excelark som svarade på samma fråga så att det var enkelt att dubbelkolla svaret.

Skummar man bara igenom, utan att titta noga, så verkar allting bra. Men den gör samma fel varje gång jag försöker ställa liknande frågor. I frågan skriver jag att lånet är 1000000 sek (en miljon), i svaret räknar LLama med att lånet är 10000000 sek (tio miljoner). Jag vet att även ChatGPT kan ha problem med siffror, men det här känns ändå värre.

Spännande... Det blir rätt med 70b modellen, men fel med 8b modellen. Känns lite som just hur LLMs approximerar kan bli scary for matematiska beräkningar då.

Detta är med 70b

BTW: 70b modellen är ju super, pluggat in den i min VS code nu

Edit: med tusen-separator och korrekt användning av decimalavskiljare för engelska tolkar även 7b modellen indata-siffrorna rätt
Så man behöver tydligen den extra "hjärnkapaciteten" från 70b modellen för att rätta den typen av fel i indata!

Klicka för mer information

We have 100,000 sek placed in an account with 3.00% interest rate. We also have 1,000,000 sek in loans, with 5.00% interest. If we move our savings to an account with 2.00% interest rate, how much discount do we need to get on the interest on our loan to do break even? Let's calculate the current and new scenarios: **Current scenario:** * Savings: 100,000 SEK with a 3.00% interest rate = 3,000 SEK in interest per year * Loans: 1,000,000 SEK with a 5.00% interest rate = 50,000 SEK in interest per year **New scenario:** * Move savings to an account with a 2.00% interest rate (let's call this new interest income "x") * Interest paid on loans remains the same: 50,000 SEK per year * New interest income from savings: x = 100,000 SEK × 2.00% = 2,000 SEK To break even, the new interest income should be equal to or greater than the interest paid on the loans: 2,000 SEK (new interest income) ≥ 50,000 SEK (interest paid on loans) Since the new interest income is lower than the interest paid on the loans, we need a discount on the loan interest to make up the difference. Let's find out how much discount we need: Discount needed = Interest paid on loans - New interest income = 50,000 SEK - 2,000 SEK = 48,000 SEK So, to break even, we would need a discount of at least 48,000 SEK (or approximately 4.80%) on the interest rate of our loan. Note that this calculation assumes the interest rates remain constant and there are no other changes to your financial situation.

Visa mer
Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

Detta verkar ju lovande: https://twitter.com/arankomatsuzaki/status/178259465976138965...

Ifall ni också vill testa 70b modellen av Llama3 rekommenderar jag Groq: https://groq.com/

Visa signatur

Samsung 77" S90C QD-OLED || LG OLED 42C2 || Sony 77" A80J OLED || Macbook Pro 16" M1 Max 1TB 32GB || Asus ROG Azoth med Black Ink V2s (205g0) + Asus ROG Harpe ACE

Permalänk
Medlem
Skrivet av beh:

...

Ja en språkmodell blir en abstraktion av det den har tränats på, en projektion av mänsligt vetande. Men det är ju helt enligt vad vi förväntar oss. Det är människor som står för all det som en språkmodell kan inferera från träningsdatat. Dessutom är vi i en unik period nu, för att än så länge är inte majoriteten av träningsdata annan utdata från språkmodeller. Men inom ett par år kommer majoriteten av träningsdata vara genererad av andra språkmodeller. Då är det inte längre en proejktion av mänsligheten som modellerna tränas på utan något annat.

Absolut, min poäng var mer att de inte är simpla stokastiska papegojor som de flesta verkar ha en uppfattning om att de är (gäller dock kanske för de mindre modellerna). Väldigt intressant ämne: https://en.wikipedia.org/wiki/Emergence

Annan intressant länk: https://en.wikipedia.org/wiki/Stochastic_parrot

Visa signatur

Samsung 77" S90C QD-OLED || LG OLED 42C2 || Sony 77" A80J OLED || Macbook Pro 16" M1 Max 1TB 32GB || Asus ROG Azoth med Black Ink V2s (205g0) + Asus ROG Harpe ACE

Permalänk
Medlem
Skrivet av Yoshman:

Spännande... Det blir rätt med 70b modellen, men fel med 8b modellen. Känns lite som just hur LLMs approximerar kan bli scary for matematiska beräkningar då.

Detta är med 70b
<Uppladdad bildlänk>

BTW: 70b modellen är ju super, pluggat in den i min VS code nu

Edit: med tusen-separator och korrekt användning av decimalavskiljare för engelska tolkar även 7b modellen indata-siffrorna rätt
Så man behöver tydligen den extra "hjärnkapaciteten" från 70b modellen för att rätta den typen av fel i indata!

Klicka för mer information

We have 100,000 sek placed in an account with 3.00% interest rate. We also have 1,000,000 sek in loans, with 5.00% interest. If we move our savings to an account with 2.00% interest rate, how much discount do we need to get on the interest on our loan to do break even? Let's calculate the current and new scenarios: **Current scenario:** * Savings: 100,000 SEK with a 3.00% interest rate = 3,000 SEK in interest per year * Loans: 1,000,000 SEK with a 5.00% interest rate = 50,000 SEK in interest per year **New scenario:** * Move savings to an account with a 2.00% interest rate (let's call this new interest income "x") * Interest paid on loans remains the same: 50,000 SEK per year * New interest income from savings: x = 100,000 SEK × 2.00% = 2,000 SEK To break even, the new interest income should be equal to or greater than the interest paid on the loans: 2,000 SEK (new interest income) ≥ 50,000 SEK (interest paid on loans) Since the new interest income is lower than the interest paid on the loans, we need a discount on the loan interest to make up the difference. Let's find out how much discount we need: Discount needed = Interest paid on loans - New interest income = 50,000 SEK - 2,000 SEK = 48,000 SEK So, to break even, we would need a discount of at least 48,000 SEK (or approximately 4.80%) on the interest rate of our loan. Note that this calculation assumes the interest rates remain constant and there are no other changes to your financial situation.

Visa mer

Tack för tipsen! Känns som 70b modellen är en bra anledning att skaffa en lite roligare dator...
Hur använder du modellen tillsammans med VS Code på ett bra sätt?

Permalänk
Medlem
Skrivet av talonmas:

*ps, kul med fler AI-intresserade personer. Förvånad att det är så få trådar om ämnet på ett teknikforum. Ska nog publicera en AI for dummies med inriktning på tekniken under huven. Och sen lite trådar om att skapa en modell från grunden vs fine tuning vs embedding (RAG).

Spännande! Den skulle läsas

Permalänk
Datavetare
Skrivet av jaqob:

Tack för tipsen! Känns som 70b modellen är en bra anledning att skaffa en lite roligare dator...
Hur använder du modellen tillsammans med VS Code på ett bra sätt?

Finns säker många sätt, letade initialt på något som påminner om hur JetBrains Rider använder LLMs. Ett sätt att göra det med VS Code är med denna utökning: https://www.continue.dev

Kan då se ut så här

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Elgot:

Nja, naturligt urval medför inte nödvändigtvis optimalitet. Det är ett sätt att anpassa sig på, men många faktorer påverkar och även om allt skulle gå åt rätt håll (och inte fastnar i återvändsgränder) är det ju inte säkert att processen har hunnit ända fram? Vi har förstås tagit vår snirkliga väg för att hamna där vi är, men det behöver ju inte innebära att det inte finns genvägar (särskilt om vi egentligen inte är så intresserade av alla biologiska kompromisser som måste till för att det skall fungera i praktiken). Att det hittils också främst handlar om text kan ju också låta som en begränsning, men är det verkligen så väsentligt? Text (ofta via tal) är väl hur vi normalt interagerar med andra intelligenser och även om vi föreställer oss att vi har ett rikt inre liv är det kanske på låg nivå inte särskilt mycket mer spännande än modellernas...
Jag säger inte heller att modellerna tänker som människor, men om man inte riktigt vet vad det innebär är det ju svårt att säga om det är bra eller dåligt. Det är ju lätt att hamna i det där att människor har själ (så vi är bra) till skillnad från djuren (som därför är dåliga).

Frågan är väl dock vad man förväntar sig? Det där gäller väl egentligen även om man pratar med en människa?

Jag är ändå inte övertygad om att det är för att en språkmodell kan "tänka" som den teoretisk kan stapla saker på varandra. Det är för att människor kan stapla saker på varandra som en språkmodell kan det.

Jag är inte främmande för att människor bara är deterministiska system tränade genom miljö och genitik i en stokastisk värld, men det betyder inte att en språkmodell har mänskliga egenskaper. En människa är en biologisk produkt likt hur en språkmodell är en logisk produkt, men beräkningskapaciteten vi har tillgänglig idag räcker inte till för att simulera eller ens emulera något så komplext som en människa.

Skrivet av Toss3:

Absolut, min poäng var mer att de inte är simpla stokastiska papegojor som de flesta verkar ha en uppfattning om att de är (gäller dock kanske för de mindre modellerna). Väldigt intressant ämne: https://en.wikipedia.org/wiki/Emergence

Annan intressant länk: https://en.wikipedia.org/wiki/Stochastic_parrot

Jo men jag menar att de verkligen är stokastiska papegojor i meningen att de genererar trovärdiga svar. Papegojor som alltså är tränade på 600 GB text, dvs. ca 20 gånger mer än vad en människa går genom på en livstid. Att mänskliga egenskaper som känslor, slutledningsförmåga och liknande uppträder i en sådan modell är inte konstigt. Det som är överraskande är att det går att få ut så bra kvalitet som de moderna modellerna vi har idag, speciellt med tanke på den input som ges.

Vi människor har besjälat döda ting genom att tillskriva de med mänskliga egenskaper under hela vår tid på jorden. Jag förstår inte vad som är skillnaden med en LLM. Det är inte din kompis. Det är en projektion av mänskligheten som i våra ögon får liv.