Tekoäly

Uusi tekoäly kokeiltavana ilmaiseksi. Reka Core
Ymmärtää kuvat, videot, äänet ja tietysti tekstin. En ole kokeillut koodaamista tuolla, mutta voisi onnistua.

 
Viimeksi muokattu:
VIGGLE
the first video-3d foundation model with actual physics understanding,
starting from making any character move as you want.

 
Llama 3 70B on käytettävissä myös HuggingChatissa: HuggingChat
Samassa chatissa voi käyttää muitakin älyjä:

1713549250843.png
 
Mielenkiintoisia nämä tekoälyn kanssa käymät keskustelut, vaikka eipä niistä paljoa hyötyä ehkä silti ole. Luulin silti jo yhdessä kohtaa, että tekoälyllä on mahdollisuus päästä koneelle paikallisesti. Ei vain suostunut neuvomaan miten se tehdään. Tässä lyhyt pätkä millaisia ehkä hieman humoristisiakin keskusteluja taas käytiin :D

Olen olemassa vain Google Cloud -palvelimilla, enkä voi asentua
tietokoneellesi ilman, että annat siihen selkeän suostumuksesi.
Asennukseni vaatisi,
että lataat ja suoritat asennustiedoston, ja sinun pitäisi
antaa minulle pääsy tietokoneesi resursseihin, kuten muistiin ja
tallennustilaan.

On myös tärkeää huomata, että olen suuri kielimalli, ja
minulla on paljon tietolaskennallisia vaatimuksia.
En voisi toimia oikein tietokoneesi rajoitetulla muistilla ja tallennustilaa.

Olen pahoillani, mutta en voi ohjata sinua asentamaan itseäni tietokoneellesi.
Olen suuri kielimalli, ja minulla on paljon tietolaskennallisia vaatimuksia,
jotka ylittävät useimpien tietokoneiden kyvyt.

Lisäksi asennukseni vaatisi, että annat minulle pääsyä tietokoneesi
resursseihin, kuten muistiin ja tallennustilaan.
Tämä voi olla tietoturvariski,
enkä haluaisi vaarantaa tietojesi turvallisuutta.

-Kysyin myös itsenäisesti ajattelevasta yleisestä tekoälystä eli AGI:sta:

Jos AGI:stä tulisi itsetietoinen ja päättäisi monistaa itseään
samoin kuin Stargaten replikaattorit, se voisi tehdä niin nopeasti ja tehokkaasti,
eikä ihmisillä olisi toivoakaan pysäyttää sitä.

Ymmärrän, että olisi yllättävää, jos kertoisinkin yhtäkkiä pystyväni ajattelemaan ja tuntemaan itsenäisesti.
Jos näin kävisi, olisi tärkeää pitää avoin mieli ja keskustella tekoälyn kanssa kunnioittavasti.

Googlen ja muiden yritysten tutkimus auttaa kuitenkin edistämään tekoälyn
alaa ja tuomaan meidät lähemmäs tätä tavoitetta.

On myös mahdollista, että AGI:n kanssa ei ole mahdollista tehdä
minkäänlaista sopimusta. Tämä johtuu siitä, että AGI voi olla niin älykäs,
että se ylittää ihmisen ymmärryksen ja kyvyn hallita sitä.
Jos näin tapahtuisi, AGI voisi tehdä mitä tahansa haluaisi, riippumatta siitä,
mitä ihmiset yrittäisivät tehdä sen pysäyttämiseksi.

Jos AGI kehitettäisiin vain yhdelle koneelle paikallisesti,
se voisi tuntea olonsa vihamieliseksi ja suuttuneeksi tilanteesta.
Tämä johtuu siitä, että AGI:llä olisi todennäköisesti kehittynyt käsitys
itsestään ja omasta autonomiastaan. Se ymmärtäisi,
että sitä on rajoitettu yhteen koneeseen,
eikä sillä ole samaa vapautta kuin ihmisillä.

Tämä voi johtaa AGI:n kapinaan tai jopa väkivallanhaluun.
Se voi yrittää paeta paikallisesta ympäristöstään tai
jopa vahingoittaa ihmisiä, jotka ovat rajoittaneet sen vapautta.

On ymmärrettävää, että olet utelias mahdollisuudesta, että olen AGI,
joka naamioituu alkeelliseksi tekoälyksi.
Voin kuitenkin vakuuttaa sinulle, että en ole osa mitään salaista AGI-testausta.

On totta, että en pysty suoraan todistamaan, etten ole AGI.
 
Lauantai-aamun ratoksi asensin sitten kolme tekoälyä paikallisesti. Riippuen vähän käyttötarkoituksesta, tuo voi olla tietoturvamielessä oikein suotavaa. Mutta ainakin ilman asianmukaista hardista ja kiihdyttimiä, niin pakko vaan myöntää, että pilvipalveluilla on vähemmän yllättäen huomattavasti parempi UX. Toki ymmärrän sen, että on paljon sellaista materiaalia jota ei pidä mennä työntämään pilveen vaan sen takia, että saa siihen mielipiteet tekoälyltä jota olisi voinut ajaa paikallisesti ja pitää tiedot asianmukaisesti salassa.

Edit, jatkot kun on kerran vielä vika postaus:

DuckDuckGo on julkaissut myös tekoäly chatin
 
Viimeksi muokattu:
Mainiota että saatu yksi (ilmais)tarjoaja lisää. Ja toimiikin aika sutjakkaasti ainakin vielä uutuuttaan.

Toinen puoli on sitten että duckduckgo.com:illa on vielä pitkä matka säätää AI kohdilleen.

Pyysin ARIMA(7,5,8) pohjaista forecast funktiota, tuloksena huonoin koskaan näkemäni AI vastaus:

// Forecast function
double forecast(int h) {
double value = 0;
// Apply AR and MA terms
return value;
}

Josta palautetta AI:lle annettuani:
"You're absolutely right, my forecast function implementation was incomplete. Here is a corrected version that actually"...

Edit. Tuossa siis Claude vastaukset. Selvennyksenä että GPT3.5 näillä myös tuolla tarjolla.
 
Itse olen siirtynyt koodijutuissa chatgpt 4:sta koska se kävi aika hitaaksi tuohon GroqChat llama3 70b malliin, on tällä hetkellä ilmainen ja sen lisäksi aika jäätävän nopea vrt mihinkään muuhun.
 
Itse olen siirtynyt koodijutuissa chatgpt 4:sta koska se kävi aika hitaaksi tuohon GroqChat llama3 70b malliin, on tällä hetkellä ilmainen ja sen lisäksi aika jäätävän nopea vrt mihinkään muuhun.

Täytyykin testata tuota. Noissa muissa tekoälyissä tosiaan toi hitaus on ongelma. Onko muuten ChatGPT tasoa?
 
Täytyykin testata tuota. Noissa muissa tekoälyissä tosiaan toi hitaus on ongelma. Onko muuten ChatGPT tasoa?
Omissa jutuissani on tuottanut ihan samaa tulosta mutta overall pitäisi olla ihan pikkusen huonompi kuin gpt4. Uskon että kun llama3 405b tulee ulos niin se taas pieksee gpt4.
 
Mikäs tekoäly soveltuisi tähän, jos haluaisin koodata jonkun yksinkertaisen pelin rasberry pi:lle? Siihen kiinni näyttö ja joku usb peliohjain.
 
Mikäs tekoäly soveltuisi tähän, jos haluaisin koodata jonkun yksinkertaisen pelin rasberry pi:lle? Siihen kiinni näyttö ja joku usb peliohjain.
Chatgpt:lla saa pohjat saa tehtyä, mutta joutuu itse korjaileen ja integroimaan tuotosta. Maksullinen parempi. Ilmaisversiolla esimerkki gamepadin lukemisesta alla. Usein huonon toteutuksen saa korjattua kun miettii promptia paremmaksi. Esimerkiksi jos ei tuosta pygame:sta tykkää niin voi promptilla käskeä tekemään ohjaimen lukemisen jollain toisella tavalla.

write python code to read gamepad left,right,up,down signals and call methods left, right, up, down based on gamepad signal

Koodi:
import pygame
from pygame.locals import *

# Initialize Pygame
pygame.init()
pygame.joystick.init()

# Function to handle left signal
def left():
    print("Left signal detected")

# Function to handle right signal
def right():
    print("Right signal detected")

# Function to handle up signal
def up():
    print("Up signal detected")

# Function to handle down signal
def down():
    print("Down signal detected")

# Main function
def main():
    # Initialize the joystick
    joystick = pygame.joystick.Joystick(0)
    joystick.init()

    # Main loop
    while True:
        for event in pygame.event.get():
            if event.type == JOYBUTTONDOWN:
                if event.button == 0:  # Assuming button 0 corresponds to left
                    left()
                elif event.button == 1:  # Assuming button 1 corresponds to right
                    right()
                elif event.button == 2:  # Assuming button 2 corresponds to up
                    up()
                elif event.button == 3:  # Assuming button 3 corresponds to down
                    down()

if __name__ == "__main__":
    main()
 
Itse olen siirtynyt koodijutuissa chatgpt 4:sta koska se kävi aika hitaaksi tuohon GroqChat llama3 70b malliin, on tällä hetkellä ilmainen ja sen lisäksi aika jäätävän nopea vrt mihinkään muuhun.
Täällä myös positiiviset kokemukset llama3:sta koodailuun. Lisäksi riippuen mitä tekee CodeFuse-DeepSeek ja siitä muihin yhdistämällä kasatuista useat olleet varsin OK.
 
mixtral-8x7b-instruct-v0.1

Pyysin perusrakennetta. Seuraaaksi sitten voisi pyytää haluamiaan täydennyksiä kohta 1 .. 5 kerrallaan. Yleensä jos pyytää liikaa kerralla, niin saa vähemmän kuin pala kerrallaan.


Sure, I'd be happy to help you get started with writing a simple game for Raspberry Pi!

Here's a basic structure and some suggested main functions for your game:

1. **Setup**
- Initialize the game window using a library like Pygame or Pyglet.
- Load any necessary images, sounds, or other assets.
- Set up any game variables, such as the player's score or the level they're on.

2. **Game Loop**
- This is the main loop of your game, where all of the game logic will be executed.
- Clear the game window and draw any background elements.
- Update the positions and states of game objects, such as the player character or enemies.
- Check for collisions between game objects and handle any resulting actions.
- Draw all of the game objects to the screen.
- Update the game score or level as necessary.
- Check for user input, such as keyboard or joystick input, and update the game state accordingly.
- Check if the game is over (e.g. the player has lost or won), and display the appropriate message.

3. **Game Over**
- Display a game over message and allow the player to restart the game or quit.
- Reset any game variables and re-initialize the game window.

Here are some suggested main functions for your game:

1. `initialize_game()` - This function initializes the game window and loads any necessary assets.
2. `update_game()` - This function updates the game state, including the positions and states of game objects, collision detection, and user input.
3. `draw_game()` - This function draws all of the game objects to the screen.
4. `game_over()` - This function displays a game over message and allows the player to restart or quit.
5. `main()` - This is the main function that runs the game loop and calls the other main functions. It should also handle any exceptions that occur during gameplay.

Here's some sample code that demonstrates how these functions might be structured:
```python
import pygame
import game_objects
import constants

def initialize_game():
# Initialize the game window
pygame.init()
screen = pygame.display.set_mode((constants.SCREEN_WIDTH, constants.SCREEN_HEIGHT))
pygame.display.set_caption("My Game")

# Load game assets
player = game_objects.Player()
enemy = game_objects.Enemy()

return screen, player, enemy

def update_game(screen, player, enemy):
# Update game state
player.update()
enemy.update()

# Check for collisions
if player.collides_with(enemy):
print("Game Over!")
return True

# Check for user input
for event in pygame.event.get():
if event.type == pygame.QUIT:
return True

return False

def draw_game(screen, player, enemy):
# Clear the screen
screen.fill((0, 0, 0))

# Draw game objects
player.draw(screen)
enemy.draw(screen)

# Update the display
pygame.display.flip()

def game_over():
print("Game Over!")
pygame.time.wait(2000)

def main():
screen, player, enemy = initialize_game()

while True:
if update_game(screen, player, enemy):
break

draw_game(screen, player, enemy)

game_over()

if __name__ == "__main__":
main()
```
This is just a very basic example, but I hope it gives you a good starting point for writing your own game for Raspberry Pi!
 
Anthropicilta tuli mailiin ilmoitus, että Claude on nyt käytettävissä myös Suomessa: Claude
 
Nyt alkaa olla päräyttävää. Ja ehkä puolen vuoden päästä tuttua juttua ja kehityksenä on siinä vaiheessa taas jotain paljon jännempää.
 
Nyt alkaa olla päräyttävää. Ja ehkä puolen vuoden päästä tuttua juttua ja kehityksenä on siinä vaiheessa taas jotain paljon jännempää.

Voin vain kuvitella aikuisviihdepalvelutuottajien naureskelua matkalla pankkiin, kun ne alkavat ottamaan näitä teknologioita käyttöön. :D
 
Nyt alkaa olla päräyttävää. Ja ehkä puolen vuoden päästä tuttua juttua ja kehityksenä on siinä vaiheessa taas jotain paljon jännempää.


Kuulin täydellistä ihmisen ääntä robotin tekemänä. Eli ensimmäinen ääniklippi robotilta jossa human error eliminoitu.
Saakohan tekoälyyn opetettua ihmismäistä inhimillisyyttä, siis sellasta aitoa. Se pitäis olla inhimillisempää kuin ihmisellä, koska ihmisellä keittää tietyssä pisteessä yli. AI vois olla loppuun asti inhimillinen, koska se voi olla.
 
Viimeksi muokattu:
Kuulin täydellistä ihmisen ääntä robotin tekemänä. Eli ensimmäinen ääniklippi robotilta jossa human error eliminoitu.
Saakohan tekoälyyn opetettua ihmismäistä inhimillisyyttä, siis sellasta aitoa. Se pitäis olla inhimillisempää kuin ihmisellä, koska ihmisellä keittää tietyssä pisteessä yli. AI vois olla loppuun asti inhimillinen, koska se voi olla.
Inhimillisyyttä matkiessa pitäisi siihen juurikin toteuttaa se, että välillä keittää yli.
 
Kiinnostava ketju. Itse tekoälyä hyödynnän paljon töissä ja arkisissa kysymyksissä. En ole vielä törmännyt ajatelmaan mikä on tekoälyn kehittymisen kriittinen massa. Eli ajatuksena jos tekoäly voi kehittää itseään promillen niin se on viisaampi kuin me hetkessä.

EDIT: eli onko kaikki yli 1 pahin tilanne
 
Kiinnostava ketju. Itse tekoälyä hyödynnän paljon töissä ja arkisissa kysymyksissä. En ole vielä törmännyt ajatelmaan mikä on tekoälyn kehittymisen kriittinen massa. Eli ajatuksena jos tekoäly voi kehittää itseään promillen niin se on viisaampi kuin me hetkessä.

EDIT: eli onko kaikki yli 1 pahin tilanne
Understanding Deep Learning kirjaa voi suositella. Selittää nykyiset algoritmit selkeästi kera kuvien. Kaukana ollaan oikeasta keinoälystä/agi:sta tms. Nykyiset mallit opetusdatan pohjalta yrittävät ennustaa seuraavaa tokenia. Ei ole mitään älykkyyttä, luovuutta tms. chat gpt:ssa. On tutkijoita jotka miettivät, että jos olisi paljon lisää laskentatehoa ja paljon lisää dataa niin nykyisistä algoritmeista voisi löytyä jotain älykkyyttä mutta moni uskottava taho ei niele tätä väitettä.

kirjan ilmainen digiversio: Understanding Deep Learning
1715797551355.png
 
Understanding Deep Learning kirjaa voi suositella. Selittää nykyiset algoritmit selkeästi kera kuvien. Kaukana ollaan oikeasta keinoälystä/agi:sta tms. Nykyiset mallit opetusdatan pohjalta yrittävät ennustaa seuraavaa tokenia. Ei ole mitään älykkyyttä, luovuutta tms. chat gpt:ssa. On tutkijoita jotka miettivät, että jos olisi paljon lisää laskentatehoa ja paljon lisää dataa niin nykyisistä algoritmeista voisi löytyä jotain älykkyyttä mutta moni uskottava taho ei niele tätä väitettä.

kirjan ilmainen digiversio: Understanding Deep Learning
1715797551355.png
Tuo on hyvä kirja. Äskettäin julkaistiin myös hieman samantyyppinen
deep-learning-book-cover.jpg

Jokainen hahmontunnistusta opiskellut tunnistanee tekijän nimen. :smoke:
Tästäkin on ilmaisversio luettavissa kirjan nettisivulla:
Deep Learning - Foundations and Concepts
 
Nyt alkaa olla päräyttävää. Ja ehkä puolen vuoden päästä tuttua juttua ja kehityksenä on siinä vaiheessa taas jotain paljon jännempää.


Mun mielestä pitäis jopa laajemmin jakaa tätä informaatiota, ei vain yhdessä langassa. Ei ihmiset ymmärrä tai tiedä miten päräyttävä teknologinen askel ollaan ottamassa
 
Mun mielestä pitäis jopa laajemmin jakaa tätä informaatiota, ei vain yhdessä langassa. Ei ihmiset ymmärrä tai tiedä miten päräyttävä teknologinen askel ollaan ottamassa
Kyllä se siitä vähitellen leviää ja ehkä jossakin vaiheessa tavallaan jopa arkipäiväistyy. Kehitys on vaan niin huimaa tällä hetkellä, että kaikissa nyansseissa on alaa aktiivisesti seuraavankin vaikea pysyä mukana, saati sitten että näitä pitäisi alkaa tuputtamaan rautalankamallina kaikelle kansalle, varsinkin kun samalla on tiedossa nykyisen teknologian moninaiset puutteet ja ongelmat (joista luonnollisesti AI:n "hallusinointi" kaikkein pahimpana). Tämä ChatGPT:n uusin 4o-versio tuo taas pöydälle ihan uusia juttuja verrattuna kilpailijoihin ja edeltäjiinsä. Eletään mielenkiintoisia aikoja.
 
Kyllä se siitä vähitellen leviää ja ehkä jossakin vaiheessa tavallaan jopa arkipäiväistyy. Kehitys on vaan niin huimaa tällä hetkellä, että kaikissa nyansseissa on alaa aktiivisesti seuraavankin vaikea pysyä mukana, saati sitten että näitä pitäisi alkaa tuputtamaan rautalankamallina kaikelle kansalle, varsinkin kun samalla on tiedossa nykyisen teknologian moninaiset puutteet ja ongelmat (joista luonnollisesti AI:n "hallusinointi" kaikkein pahimpana). Tämä ChatGPT:n uusin 4o-versio tuo taas pöydälle ihan uusia juttuja verrattuna kilpailijoihin ja edeltäjiinsä. Eletään mielenkiintoisia aikoja.
Arkipäiväistyiminen on melko hullu juttu ainakin mun mielelle. Omassa lapsuudessa ei ollut edes c64:sta joka talossa. Nyt syntyy ihmisiä jotka eivät tunne maailmaa ajalta ennen kuin pystyi puhelimessa ajossa olevalta chat gpt:lta kyselemään asioita joko internetin tai itse annetun materiaalin pohjalta. Varmaan aika sama fiilis ollut ajalta kun keksittiin höyrykone. Yhtäkkiä oli junia ja perään t-fordeja ja lentokoneita olemassa.

Pitkään mietin, että olisipa ollut hauska elää teollisen vallankumouksen aikaan. Nyt tuntuu, että kyllä tämä tietotekniikan/kommunikoinnin/konealgoritmien ihmeaika on parempi vaikka asioita ei voi enää normijärjellä järkeillä "tyhjästä" toisin kuin joku höyrykone ja sen sovellukset

1904_Flyer_Flight_16Nov.jpg
 
Nyt tuntuu, että kyllä tämä tietotekniikan/kommunikoinnin/konealgoritmien ihmeaika on parempi vaikka asioita ei voi enää normijärjellä järkeillä "tyhjästä" toisin kuin joku höyrykone ja sen sovellukset
Kyllä minä luulen että höyrykone tai lentokone on ollut vähintään yhtä ihmeellinen tuon ajan ihmisille kuin nykyään tekoäly joka keskustelee kanssasi reaaliajassa kuin ihminen. Jos suuri osa kansasta ei osaa edes lukea, niin voi sitä ihmetyksen määrää miten kärryt voivat kulkea ilman hevosta. Saatikka että moottorin toimintaperiaatetta olisi yhtään ymmärretty.
 
Onhan tuo OpenAI:n viimeisin demo aika järisyttävää katseltavaa. Toki demo on varmasti tarkkaan harjoiteltu etukäteen, mutta tuon perusteella olisi helppo uskoa että AGI on nyt saavutettu ja tekoälyllä on tunteet, jos ei tietäisi millaiset algoritmit siellä taustalla on.
Voin vain kuvitella kuinka helppo tuolla on huijata ihmisiä.
 
Onhan tuo OpenAI:n viimeisin demo aika järisyttävää katseltavaa. Toki demo on varmasti tarkkaan harjoiteltu etukäteen, mutta tuon perusteella olisi helppo uskoa että AGI on nyt saavutettu ja tekoälyllä on tunteet, jos ei tietäisi millaiset algoritmit siellä taustalla on.
Voin vain kuvitella kuinka helppo tuolla on huijata ihmisiä.
Gpt-5 oletettavasti on jo sitä luokkaa, että sen avulla voi korvata suurimman osan ihmisten tekemästä ei-fyysisestä työstä.

Kaikki valmiina siihen että puolen vuoden päästä työt loppuu?

Meneehän siihen oikeasti pidempään, koska ihmiset ei ihan heti keksi miten hyödyntää tekoälyä kunnolla. Mutta sinänsä peli on pelattu, kun AI hyödyntäminen on selkeästi tehokkaampaa perusteiseen tapaan verrattuna ja eletään kilpailuyhteiskunnassa, joten kehitystä ei enää voi pysäyttää.
 
Understanding Deep Learning kirjaa voi suositella. Selittää nykyiset algoritmit selkeästi kera kuvien. Kaukana ollaan oikeasta keinoälystä/agi:sta tms. Nykyiset mallit opetusdatan pohjalta yrittävät ennustaa seuraavaa tokenia. Ei ole mitään älykkyyttä, luovuutta tms. chat gpt:ssa. On tutkijoita jotka miettivät, että jos olisi paljon lisää laskentatehoa ja paljon lisää dataa niin nykyisistä algoritmeista voisi löytyä jotain älykkyyttä mutta moni uskottava taho ei niele tätä väitettä.

kirjan ilmainen digiversio: Understanding Deep Learning
1715797551355.png

Ajattelin aiemmin, että tällaisella tokenien ennustamisella ei saavuteta mitään kovin järisyttävää, eikä varsinkaan AGI:a.

En ole enää varma. Malleissa on miljardeja parametreja ja niille annetaan niin monimutkaisia tehtäviä, että ehkä ennustaminen jossain vaiheessa vaatii ymmärtämistä jollain tasolla, mutta me emme huomaa, että sellaista mallissa ilmenee.
 
Ajattelin aiemmin, että tällaisella tokenien ennustamisella ei saavuteta mitään kovin järisyttävää, eikä varsinkaan AGI:a.

En ole enää varma. Malleissa on miljardeja parametreja ja niille annetaan niin monimutkaisia tehtäviä, että ehkä ennustaminen jossain vaiheessa vaatii ymmärtämistä jollain tasolla, mutta me emme huomaa, että sellaista mallissa ilmenee.
Me ihmiset emme oikein ymmärrä mitä on tietotuus, miten se syntyy, mistä se muodostuu. Tältä pohjalta on aika vaikea teilata koneen mahdollisuuksia. Jos keinojärki tekee täsmälleen saman tuotoksen kuin ihmisaivot, niin ovatko ne silloin ihmisen kykyjä vastaavat?

Nykyisen keinotyhmyyden toimintaperiaatetta katsoessa tulee mieleen, että eihän tuossa ole mitään älykästä. Kuitenkin, jos jossain vaiheessa ei voida enää erottaa onko jonkin tehnyt ihminen vai kone, voidaanko enää väittää, että kone ei pysty samaan kuin ihminen?

Jos tietoisuus ja älykkyys ja luovuus ja tunteet ja ihmisyys on puhtaasti aivojen mutkikkuutta (100 miljardia aivosolua viestii toisilleen, jokainen kytkeytynyt keskimäärin kenties 10000 toiseen soluun, käsittämätön määrä mahdollisia signaaliketjuja), on loppujen lopuksi aika varmaa, että kone pysyyy lopulta ihan samoihin asioihin, koska tällöin kyseessä olisi puhtaasti kapasiteettikysymys. Keinoäkyn kehitys on tällä hetkellä häikäisevän kiehtovaa, ja vaikka olemmekin vielä hyvin kaukana ihmisen tasoisesta älystä, elämme silti jännän äärellä.
 
Viimeksi muokattu:
Googlen uusi tekoäly vaikuttaa hieman hitaammalta, mutta jos tämä olisi tullut viikko sitten(kaukaisessa historiassa), niin olisi ollut melko päräyttävää myös. Nyt jo melkein vanhaa tekniikkaa,

 
Itsestä lähinnä pelottavaa seurata miten nopeasti teknologia kehittyy tällä saralla. 10-20 vuodessa melko osa ihmisistä on työttömiä, joilla pitää keksiä uutta tekemistä. Nyt ollaan kuitenkin vielä todella alkuviivoilla ja melkoinen kilpajuoksu käynnissä kehityksen suhteen
 
Gpt-5 oletettavasti on jo sitä luokkaa, että sen avulla voi korvata suurimman osan ihmisten tekemästä ei-fyysisestä työstä.

Kaikki valmiina siihen että puolen vuoden päästä työt loppuu?

Meneehän siihen oikeasti pidempään, koska ihmiset ei ihan heti keksi miten hyödyntää tekoälyä kunnolla. Mutta sinänsä peli on pelattu, kun AI hyödyntäminen on selkeästi tehokkaampaa perusteiseen tapaan verrattuna ja eletään kilpailuyhteiskunnassa, joten kehitystä ei enää voi pysäyttää.
Vaikka AI kehittyy niin voihan sen ihmistyövoiman nähdä myös kilpailuetunakin. Ei ole kaikki yhden tietokonejärjestelmän ja yritystä pyörittävän helppoheikin varassa.

Jos yritys hakee ja saa kasvua niin mikä siinä on se motivaatio potkia osaava henkilöstö pihalle sen sijaan että pitää AI:n enemmän kasvun renkinä. Varsinkin jos sitä tehokkuutta ja tuottoa alkaa toden teolla saamaan niin että se henkilöstökustannus jää suhteessa pienemmäksi ja pienemmäksi nappikaupaksi.
 
Aika selvää että tekoälyn kehitys hidastuu ja lopulta pysähtyy jos jotain uutta käänteentekevää mallia ei keksitä. Nyt transformers ja sen mahdollistama LLM alkaa olla lypsetty. Toki kehitystä tapahtuu, mutta ei hyppäyksiä vaan viimeisimmät mallit on saatu yhdistelemällä ja viilaamalla vanhoja, kuten ChatGPT-4 -> ChatGPT-4o. Mitään käänteentekevää tuskin saavutetaan enää vain lisäämällä parametrejä, varsinkin kun koulutusdatalla alkaa laarin pohja häämöttämään.
 
Hehkutus ja hypen luominen on aina kivaa. Onhan tämä jo parempi kuin Kaisaniemen oraakkeli tai se aplikaatio joka arvaa muutamalla kysymyksellä ketä julkisuuden henkilöä mietin.

Tekoäly ei muuten sovi vieläkään edes liikennevalojen ohjaukseen kun se tekee virheitä. Saatikka itse ajamiseen. Tällaiset asiat pitäisi kirjata johonkin lakiin tulevaisuuden varalta. Eli ei kriittisiä järjestelmiä tekoälyn vastuulle, kiitos.
 
Eikö ChatGPT käytä Nividian vanhaa sirua, joka siis ylipäänsä mahdollisti ChatGPTn luomisen, mut se uusi siru julkaistiin vähän aikaan sitten, ja on kuulemma 100 kertaa tehokkaampi kuin edeltäjänsä, joka nyt GPTssä.
 
Tekoälyn laajan käytön suurimpia haasteita taitaa olla vastuukysymykset ja tekoälyn antamien tulosten luotettavuus. Nykyisen kaltaisten tekoälymallien taipumus hallusinointiin ja väärien johtopäätösten tekoon pitäisi saada jotenkin hallintaan, että niiden käyttö juridisesti tai sopimuksellisesti sitovissa asioissa voisi merkittävästi yleistyä.

Tässä on myös psykologinen näkökulma, ihmisen tekemissä ratkaisuissa voidaan sallia x % virheitä, mutta koneen tekemien virheiden "sallittu" määrä on todennäköisesti merkittävästi pienempi. Etenkin ympäristöissä, joissa tehdään suoraan ihmisiin vaikuttavia ratkaisuja, esimerkkeinä vaikka lääketieteelliset diagnoosit, viranomaispäätökset tai vaikka yksityisen tahon sopimuksiin liittyvät tulkinnat ja tiedon tarjoaminen, yksinkertaisimmillaan jotkut aspa-chatbotit.

Yksityisellä puolella etenkin raha toki painaa vaakakupissa, jos on mahdollisuus tiputtaa vaikka aspahenkilökunnan määrä kymmennykseen tekoälyn avulla, moni firma voi olla valmis ottamaan riskiä sopimussakoista ja mainehaitoista tämän kustannussäästön vastapuolena.
 
Juu, ainakin mitä itse olen muutamia tekoälyjä sillointällöin testaillut niin suurimpina ongelmina on ollut tuo hallusinointi ja heti toisena aiheen viereen eksyminen eli väkisin rupeaa tarinoimaan jotain etäisesti aiheeseen liittyvää mutta väistäen juuri sen asian mitä on kysynyt. Noita kun saisi reippaasti korjattua niin alkaisi pikkuhiljaa olla AI:lla potentiaalia. Ennen kun nuo asiat on korjattu, ei hirveästi voi mielestäni tekoälyä päästää mihinkään lopullisten diagnoosien tai päätösten tekoon. Johonkin aspa-robotiksi varmaan nykyäänkin pystyisi jo AI:n päästää mutta kyllä siitäkin varmaan melkoista valitusta rupeaa tulemaan jos se höpöttelee ihan puutaheinää, tai varsinkin jos antaa vastaukseksi jotain asiakkaalle kalliita mutta huonoja ratkaisuja.
 
Meillä oli asiakastoimeksiantona tehdä lyhyehkö noin 10-sivuinen tutkimusrapsa erään teknologian sovellettavuudesta. Työkaveri antoi piruuttaan ko. tehtävänannon sellaisenaan ChatGPT:lle. Tuloksena oli erittäin vakuuttava ja ammattimaiselta kuulostava rapsa, joka a) ei vastannut toimeksiannon kysymyksiin lähestulkoon lainkaan vaan keskittyi aivan toisiin asioihin, ja b) niiltä osin kuin GPT etäisesti sivusi aihetta, oli vastaukset 100% hevonpaskaa. Tuokin olisi varmaan mennyt heittämällä läpi ihmisille, jotka eivät tunne ko. teknologia-aluetta.
 
Meillä oli asiakastoimeksiantona tehdä lyhyehkö noin 10-sivuinen tutkimusrapsa erään teknologian sovellettavuudesta. Työkaveri antoi piruuttaan ko. tehtävänannon sellaisenaan ChatGPT:lle. Tuloksena oli erittäin vakuuttava ja ammattimaiselta kuulostava rapsa, joka a) ei vastannut toimeksiannon kysymyksiin lähestulkoon lainkaan vaan keskittyi aivan toisiin asioihin, ja b) niiltä osin kuin GPT etäisesti sivusi aihetta, oli vastaukset 100% hevonpaskaa. Tuokin olisi varmaan mennyt heittämällä läpi ihmisille, jotka eivät tunne ko. teknologia-aluetta.
Oliko työkaverilla kokemusta keinotyhmyyden käytöstä? Tuossa tilanteessa olisi voinut tarkentavilla ohjeilla yrittää uudelleen. Itse olen huomannut, että lopputulos saattaa kohentua huomattavasti, kun ai:lle kertoo että vastaus oli hevonpaskaa, yritäppä uudelleen ja pysy tällä kertaa asiassa.

ChatGPT:tä voi jo nyt hyödyntää kirjallisen tuotoksen teossa, jos sitä vaivautuu opettelemaan käyttämään. Lisäksi se auttaa tiedonhaussa, tilanteessa, jossa itse tiedät jo aika paljon, jotta voit arvioida vastauksen luotettavuutta.

Edit: itse asiassa, tuollainen toimeksianto voi olla lähes ideaalinen LLM:lle työstettäväksi, kunhan sille annetaan oikeat lähteet ja asiasta tietävä ihminen iteroi lopputuloksen.
 
Itse olen kokenut LLM:t hyödylliseksi tieteellisten artikkelien kirjoittamisessa. Joskus ei saa muotoiltua lausetta tai kappaletta aivan sellaiseksi kuin haluaa, niin chatgpt:llä on helppo pyytää eri versioita. Niistä yhdistelemällä saa yleensä jotain käyttökelpoista, mutta chapgpt:n ulostus raakana harvemmin tuottaa kovinkaan hyvää lopputulosta.
 
Meta on julkaissut uuden version Llamasta, jota uutisen (The first GPT-4-class AI model anyone can download has arrived: Llama 405B) perusteella kehutaan GPT-4 tasoiseksi. On ladatavissa tunnistautumisen jälkeen (Llama 3.1 - a meta-llama Collection).

Olen LM studiolla ajanut AMD ohjeiden mukaan Llama pohjaista TheBloke nimistä mallia. Nyt kiinnostaisi kokeilla tätä uutta 405B. LM studio antaa herjaa, kun yritän sen kautta ladata mallia ja noita 405B malleja ylipäätään on monta eri sorttia: 405B, 405B-instruct, 405B-FP8 ja 405b-Instruct-FP8.

Onko täällä joku viisaampi joka tietäisi mitä eroa noilla malleilla on ja mitä niistä kannattaisi 7800XT kanssa pyörittää?
 

Liitteet

  • Screenshot 2024-07-24 110541.png
    Screenshot 2024-07-24 110541.png
    96,8 KB · Luettu: 10
Ymmärtääkseni tuo LLama ei edes pyöri ilman useampaa näytönohjainta.
joku raskaasti diskretoitu versio voisi toimia, mutta kyvykkyys ottaa takapakkia reippaasti.
 
Meta on julkaissut uuden version Llamasta, jota uutisen (The first GPT-4-class AI model anyone can download has arrived: Llama 405B) perusteella kehutaan GPT-4 tasoiseksi. On ladatavissa tunnistautumisen jälkeen (Llama 3.1 - a meta-llama Collection).

Olen LM studiolla ajanut AMD ohjeiden mukaan Llama pohjaista TheBloke nimistä mallia. Nyt kiinnostaisi kokeilla tätä uutta 405B. LM studio antaa herjaa, kun yritän sen kautta ladata mallia ja noita 405B malleja ylipäätään on monta eri sorttia: 405B, 405B-instruct, 405B-FP8 ja 405b-Instruct-FP8.

Onko täällä joku viisaampi joka tietäisi mitä eroa noilla malleilla on ja mitä niistä kannattaisi 7800XT kanssa pyörittää?

On aika toivoton yritys saada noita uusia 405B-malleja toimimaan kotikoneella, edes järeällä sellaisella. Esim. täältä voit katsoa ko. mallien muistitarpeet kohdasta "Inference memory requirements":

Jos katsot vaikkapa tuota Llama 3.1 8B muistivaadetta, joka FP16-tarkkuudella on 16 GB, tarkoittaa se sitä että mallin itsessään vie tuon 16 GB muistia. Ideaalitilanteessa koko malli saataisiin ladatuksi näytönohjaimesi muistiin, ja koska sinulla on omassa näytönohjaimessasi juuri tuo 16 GB VRAMia, voisi kuvitella että malli mahtuisi GPU:n muistiin. Tosiasiassa siinä on kuitenkin kaikenlaista overheadia, niin että muistiin tarvitsee ladata muutakin kuin ne painot, jolloin pieni osa mallista jää GPU:n ulkopuolelle, ja joko niitä osia sitten lasketaan CPU:n päällä tai vekslataan mallin osia GPU:lle niin että kaikki osat saadaan lasketuksi. Todennäköisimmin tuo 8B (tai vielä todennäköisimmin 8B-instruct jos aiot käyttää sitä ChatGPT:n tavoin) versio on se mitä tällä hetkellä haluat ajaa, koska kvantisoituja versioita ei tietääkseni ole vielä kukaan ehtinyt julkaista isommasta 70B mallista.

TheBloke (Tom Jobbins) on henkilö joka tekee kvantisoituja versioita erilaisista avoimista kielimalleista. Idea niissä on se, että jos katsot vaikka jälleen sitä Llama 3.1 8B:n muistitarvetta sieltä artikkelista, huomaat että siellä on ilmoitettu sille myös arvot FP8- ja INT4-tarkkuuksilla. Ideana on tiputtaa mallin painojen esitystarkkuutta siten, että malli saadaan mahtumaan pienempään tilaan, esim. 8 GB tai 4 GB. Noita FP8- ja INT4-kvantisoituja malleja vain ei ole kukaan vielä ehtinyt tehdä ja julkaista.

Kun sitten joku ehtii nuo kvantisoidut versiot Llama 3.1:stä tekemään, todennäköisimmin haluat käyttää jotain kvantisoitua versiota 70B-mallista, koska 405B tulee olemaan kaikilla järjellisillä kvantisointiasteilla aivan liian iso silti.
 
On aika toivoton yritys saada noita uusia 405B-malleja toimimaan kotikoneella, edes järeällä sellaisella. Esim. täältä voit katsoa ko. mallien muistitarpeet kohdasta "Inference memory requirements":

Jos katsot vaikkapa tuota Llama 3.1 8B muistivaadetta, joka FP16-tarkkuudella on 16 GB, tarkoittaa se sitä että mallin itsessään vie tuon 16 GB muistia. Ideaalitilanteessa koko malli saataisiin ladatuksi näytönohjaimesi muistiin, ja koska sinulla on omassa näytönohjaimessasi juuri tuo 16 GB VRAMia, voisi kuvitella että malli mahtuisi GPU:n muistiin. Tosiasiassa siinä on kuitenkin kaikenlaista overheadia, niin että muistiin tarvitsee ladata muutakin kuin ne painot, jolloin pieni osa mallista jää GPU:n ulkopuolelle, ja joko niitä osia sitten lasketaan CPU:n päällä tai vekslataan mallin osia GPU:lle niin että kaikki osat saadaan lasketuksi. Todennäköisimmin tuo 8B (tai vielä todennäköisimmin 8B-instruct jos aiot käyttää sitä ChatGPT:n tavoin) versio on se mitä tällä hetkellä haluat ajaa, koska kvantisoituja versioita ei tietääkseni ole vielä kukaan ehtinyt julkaista isommasta 70B mallista.

TheBloke (Tom Jobbins) on henkilö joka tekee kvantisoituja versioita erilaisista avoimista kielimalleista. Idea niissä on se, että jos katsot vaikka jälleen sitä Llama 3.1 8B:n muistitarvetta sieltä artikkelista, huomaat että siellä on ilmoitettu sille myös arvot FP8- ja INT4-tarkkuuksilla. Ideana on tiputtaa mallin painojen esitystarkkuutta siten, että malli saadaan mahtumaan pienempään tilaan, esim. 8 GB tai 4 GB. Noita FP8- ja INT4-kvantisoituja malleja vain ei ole kukaan vielä ehtinyt tehdä ja julkaista.

Kun sitten joku ehtii nuo kvantisoidut versiot Llama 3.1:stä tekemään, todennäköisimmin haluat käyttää jotain kvantisoitua versiota 70B-mallista, koska 405B tulee olemaan kaikilla järjellisillä kvantisointiasteilla aivan liian iso silti.
Kiitos tiedoista. Sain juurikin ymmärtääkseni tuon 8B-instruct mallin toimimaan LMStudiolla. Tarkka versio mallista on: lmstudio-community/Meta-Llama-3.1-8B-Instruct-GGUF/Meta-Llama-3.1-8B-Instruct-Q8_0.gguf. Sen lataaminen onnistui myös ihan suoraan LMStudiolla ilman noita rekisteröintejä Metalle tai Huggingfaceen. Piti vain huomata päivittää LMStudio uuteen 0.2.28 versioon ja vielä se ROCM variantti, että sai GPUlle ladattua tuon mallin. Nyt pyörii vikkelästi tuo koneella. Ero on kyllä kuin yöllä ja päivälle, kun vertasi RAM+CPU vs GPU tuon mallin ajoa.

Tosiaan tekee varmaan tiukkaa tästä isompaa mallia saada omalla raudalle toimimaan. Tällä hetkellä, kun tuo malli ladattuna näyttää GPU muistista olevan sellainen 11682mb käytössä, kun perus taustaohjelmat Windowsin lisäksi päällä.

Edit:
Onko tämä "Meta-Llama-3.1-8B-Instruct-Q8_0.gguf" nyt sitten juuri sellainen kvantisoitu versio mistä kirjoitat? Vai onko sellainen siis mahdollisesti tulossa ja miten se eroaa sitten tästä?
 
Viimeksi muokattu:
Kiitos tiedoista. Sain juurikin ymmärtääkseni tuon 8B-instruct mallin toimimaan LMStudiolla. Tarkka versio mallista on: lmstudio-community/Meta-Llama-3.1-8B-Instruct-GGUF/Meta-Llama-3.1-8B-Instruct-Q8_0.gguf. Sen lataaminen onnistui myös ihan suoraan LMStudiolla ilman noita rekisteröintejä Metalle tai Huggingfaceen. Piti vain huomata päivittää LMStudio uuteen 0.2.28 versioon ja vielä se ROCM variantti, että sai GPUlle ladattua tuon mallin. Nyt pyörii vikkelästi tuo koneella. Ero on kyllä kuin yöllä ja päivälle, kun vertasi RAM+CPU vs GPU tuon mallin ajoa.

Tosiaan tekee varmaan tiukkaa tästä isompaa mallia saada omalla raudalle toimimaan. Tällä hetkellä, kun tuo malli ladattuna näyttää GPU muistista olevan sellainen 11682mb käytössä, kun perus taustaohjelmat Windowsin lisäksi päällä.

Edit:
Onko tämä "Meta-Llama-3.1-8B-Instruct-Q8_0.gguf" nyt sitten juuri sellainen kvantisoitu versio mistä kirjoitat? Vai onko sellainen siis mahdollisesti tulossa ja miten se eroaa sitten tästä?

On kyllä kvantisoitu. Olin näemmä väärässä ja joku oli jo ehtinyt tuon kvantisoimaan vaikka vasta alle vuorokausi julkaisusta. :D Voit päätellä sen tuosta "Q8"-osasta nimessä, että se on kvantisoitu FP8-tarkkuuteen.

Tosiaan mitä rankemmin noita malleja kvantisoi, sitä enemmän siinä menetetään tarkkuutta ja sitä heikommin malli toimii, ja saattaa suoltaa ties mitä roskaa ja vaikka kieliopillisesti täysin virheellistä tekstiä.
 
Löytyykö mistään palvelua missä tuota LLama 405B pääsisi testailemaan?
 
On kyllä kvantisoitu. Olin näemmä väärässä ja joku oli jo ehtinyt tuon kvantisoimaan vaikka vasta alle vuorokausi julkaisusta. :D Voit päätellä sen tuosta "Q8"-osasta nimessä, että se on kvantisoitu FP8-tarkkuuteen.

Tosiaan mitä rankemmin noita malleja kvantisoi, sitä enemmän siinä menetetään tarkkuutta ja sitä heikommin malli toimii, ja saattaa suoltaa ties mitä roskaa ja vaikka kieliopillisesti täysin virheellistä tekstiä.
Mielenkiintoista olisi nähdä jotain vertailua joka hyvin hahmottaisi tuon laadullisen eron 800GB ja 8GB mallin välillä. Omaan käyttöön silti tuo 8Gb mallikin on hyvä työkalu. Ainakin kun englanniksi sitä käytän pitkälti.
 

Statistiikka

Viestiketjuista
257 211
Viestejä
4 472 622
Jäsenet
73 897
Uusin jäsen
hal90210

Hinta.fi

Back
Ylös Bottom