Tekoäly

Oletko määrittänyt Geminin jotenkin vastaamaan näin vähättelevästi ja piikittelevästi?
Mulla on oli määritelmät "If I am being sarcastic, you can use sarcasm as well." ja "Do not be overly polite!". Nämä toimi alkuun oikein hyvin, mutta nyt tuon kolmoseen päivittymisen jälkeen homma lähti lapasesta :D Olen vähän muotoillut eri tavalla samoja asioita. Katsotaan mikä on vaikutus.

Silloin näiden käyttöä aloitellessa, minua ärsytti vastauksissa sellainen yliampuva varovaisuus ja kohteliaisuus, joka sopii lisäksi hyvin huonosti suomenkieliseen viestittelyyn. Meillä kun ei ole sellaista "please muotoilua" kielessä.

lisäys: on mulla tällainenkin määrittely, joka voi myös vaikuttaa sävyyn"Avoid using softening language or preamble acknowledgments specifically when delivering a factual correction. In all other interactions, maintain a standard conversational approach."
 
Viimeksi muokattu:
Noitahan olis kyllä ihmismäiseen chattailyyn tarkoitettuja botteja tehty erityisesti niin ei välttämättä kannata yrittää geneeristä bottia käyttää "keskusteluun". Osassa visuaalit yms. myös mukana.
 
Viimeksi muokattu:
OpenAI ja Google on tästä varmasti eri mieltä :zoom:
Elämä on, mutta jos haluaa AI-kaverin niin siihen on parempia ja myös samalla visuaalisempia keinoja kuin geneerinen gemini tai chatgpt. Veikkaan, että google, openai, apple, samsung,... myös tekevät AI-kaverin jossain kohtaa, tämä syntyy ai-assistentista jonka persoonan saa kustomisoitua. Assari hoitaa asiat ja myös toimii ystävänä.

Isot toimijat joutuvat toimimaan erilaisessa "poliittisessa" ympäristössä kuin pienet. Pienet voivat tehdä asioita mitä ei huomata tai ei lööpeissä huudeta. Ts. enempi särmää pienten valmistajien tuotteissa.
 
Aika radikaalisti toi Geminin viimeisin "päivitys" joko inhimillisti ai:n käytöstä, tai sitten se muutti mun pysyväksi tarkoitettujen ohjeistuksien merkittävyyttä äärimmilleen (ylikorostaen).
Geministä aika vähän itelläni kokemusta mutta noin yleisesti ottaen tuohan on parempi "ongelma" että uusi malli vetää överi edgelordiksi vanhalla system promptilla, kun silloin tosiaan about saman vanhan käytöksen voisi kuvitella saavan tuunaamalla sitä system promptia vähän miedommaksi.

Ikävämpää olisi jos ylikohteliaasta/käyttäjän persettä nuolevasta tyylistä ei pääsisi eroon vahvallakaan system promptilla.
 
Kaasuturbiineista energialähteenä. Melko kovia lupauksia tuotantomääristä ottaen huomioon että yrityksen historia massavalmistuksesta olematon
The Superpower turbine is purportedly "optimized for AI datacenters," a claim boiled down to delivering its full 42 MW with 39% efficiency, at an operating temperature up to a toasty 110° F (43° C)
Boom says it's taken an order for its new design from Crusoe AI for a substantial 1.21 GW of turbines. The company says it builds everything in Denver, Colorado, and that it intends to create a Superfactory for this new enterprise. Boom expects to deliver 200 MW worth of turbines by 2027, 1 GW in 2028, and up to a meaty 2 GW come 2029. Crusoe ordered 29 units, and the first of them ought to be delivered in 2027.
The Superpower turbine design is derived from the company's existing Symphony airspace-targeted turbine.

According to Boom, the Symphony engine is designed to power supersonic flight at speeds of up to Mach 1.7 at 60,000 feet. Superpower will run on natural gas, rather than jet fuel, of course. While news of a Concorde successor pivoting its tech to AI might give aviation fans pause, Boom says the new project will actually boost its core mission. "The fastest way to a certified, passenger-carrying Symphony engine is to run its core for hundreds of thousands of hours in the real world, powering Earth’s most demanding AI data centers," Boom says.
 
Tekoäly voi ohjata meitä jo nyt. Kenenkään on mahdotonta sanoa, mikä osuus internetin sisällöstä on bottien generoimaa ja mikä ihmisten.
Mitenkäs sosiaalista mediaa käyttävä jengi näkee tämän viiden vuoden takaisen kommenttini tänä päivänä? Omalla kohdalla saturaatiokynnys alkaa olla jo täynnä, enkä edes pitänyt ihmisten täyttämästä "sosiaalisesta" mediasta.

Toisaalta taas vahvistusharhasta johtuen tuntuu, että tekoälyn voi tunnistaa helpommin, sillä nykyään on niin paljon huonolaatuista sisältöä, jonka valheellisuus on ilmiselvää. Tämähän on siis alkuperäiseen kommenttiin peilattuna pelkkää harhaa. Tekoäly saattaa myös tuottaa huonolaatuista köntsää ihan vain peitteeksi.
 
En ole aiemmin ymmärtänyt yhtään näitä YouTubessa pyöriviä "Tältä näyttää AI-sota" ja "Mitä tapahtuu jos AI pääsee vapaaksi?" -videoita. Enkä tajunnut ollenkaan, mistä oli kyse Sam Altmanin potkuissa ja takaisinsijoituksessa. Hänet laitettiin takaisin OpenAI:n puikkoihin, koska hän ei välitä lainkaan turvallisuudesta, vain siitä että saadaan mahdollisimman nopeasti luotua supertekoäly, johon lopputulokseen kaikki isot maat haluavat päästä ensimmäisenä.

Katsoin huvikseni tämän haastattelun, yksi maailman johtavista tekoälyturvallisuustutkijoista, jonka mukaan 2 vuodessa on mahdollista luoda AGI, eli yleistekoäly ja sen sivutuotteena synnytetään seuraavien vuosien aikana (2045 mennessä?) supertekoäly. Ongelma on vain siinä, että kukaan maailmassa ei tiedä miten sellainen saadaan hallittua, jos sinne päästään. Varsinkaan liian nopeasti.

Nopeampia vaikutuksia ovat muun muassa se, että työpaikat katoavat lähes jokaiselta vuoden 2030 jälkeen.

Jos haluaa "aggressiivisemman" haastattelijan, niin Tom Bilyeu (alempi video) on myös vaihtoehto. Katsoin molemmat.

En tykkää noista klikkiotsikoista ja thumbnaileista, mutta itse haastattelut ovat erittäin laadukkaita.

Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.




Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.
 
En ole aiemmin ymmärtänyt yhtään näitä YouTubessa pyöriviä "Tältä näyttää AI-sota" ja "Mitä tapahtuu jos AI pääsee vapaaksi?" -videoita. Enkä tajunnut ollenkaan, mistä oli kyse Sam Altmanin potkuissa ja takaisinsijoituksessa. Hänet laitettiin takaisin OpenAI:n puikkoihin, koska hän ei välitä lainkaan turvallisuudesta, vain siitä että saadaan mahdollisimman nopeasti luotua supertekoäly, johon lopputulokseen kaikki isot maat haluavat päästä ensimmäisenä.

Katsoin huvikseni tämän haastattelun, yksi maailman johtavista tekoälyturvallisuustutkijoista, jonka mukaan 2 vuodessa on mahdollista luoda AGI, eli yleistekoäly ja sen sivutuotteena synnytetään seuraavien vuosien aikana (2045 mennessä?) supertekoäly. Ongelma on vain siinä, että kukaan maailmassa ei tiedä miten sellainen saadaan hallittua, jos sinne päästään. Varsinkaan liian nopeasti.

Nopeampia vaikutuksia ovat muun muassa se, että työpaikat katoavat lähes jokaiselta vuoden 2030 jälkeen.

Jos haluaa "aggressiivisemman" haastattelijan, niin Tom Bilyeu (alempi video) on myös vaihtoehto. Katsoin molemmat.

En tykkää noista klikkiotsikoista ja thumbnaileista, mutta itse haastattelut ovat erittäin laadukkaita.

Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.




Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.

Jos AGI on mahdollista luoda kahdessa vuodessa, niin miksi kukaan ei ole julkaissut mitään sellaiseen viittaavaa, vaan OpenAI ja kumppanit vain räpeltävät LLM-viritelmien kanssa? Missä on se tekoäly joka olisi edes esimerksiksi 5-vuotiaan lapsen tasolla?
 
En ole aiemmin ymmärtänyt yhtään näitä YouTubessa pyöriviä "Tältä näyttää AI-sota" ja "Mitä tapahtuu jos AI pääsee vapaaksi?" -videoita. Enkä tajunnut ollenkaan, mistä oli kyse Sam Altmanin potkuissa ja takaisinsijoituksessa. Hänet laitettiin takaisin OpenAI:n puikkoihin, koska hän ei välitä lainkaan turvallisuudesta, vain siitä että saadaan mahdollisimman nopeasti luotua supertekoäly, johon lopputulokseen kaikki isot maat haluavat päästä ensimmäisenä.

Katsoin huvikseni tämän haastattelun, yksi maailman johtavista tekoälyturvallisuustutkijoista, jonka mukaan 2 vuodessa on mahdollista luoda AGI, eli yleistekoäly ja sen sivutuotteena synnytetään seuraavien vuosien aikana (2045 mennessä?) supertekoäly. Ongelma on vain siinä, että kukaan maailmassa ei tiedä miten sellainen saadaan hallittua, jos sinne päästään. Varsinkaan liian nopeasti.

Nopeampia vaikutuksia ovat muun muassa se, että työpaikat katoavat lähes jokaiselta vuoden 2030 jälkeen.

Jos haluaa "aggressiivisemman" haastattelijan, niin Tom Bilyeu (alempi video) on myös vaihtoehto. Katsoin molemmat.

En tykkää noista klikkiotsikoista ja thumbnaileista, mutta itse haastattelut ovat erittäin laadukkaita.

Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.




Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.

Tässä kuten lukemattomissa muissakin youtube videoissa tunnutaan nykyisin kärjistävän niitä omia kantoja suuntaan kuin toiseenkin. Eli totuus lienee josaain kahden ääripään välimaastossa. Jokatapauksessa oma pessimistinen kantani on että kuten lähes kaikella muullakin, myös tällä ihminen tulee tekemään jotain todella typerää ennenmmin tai myöhemmin.
 
Jos AGI on mahdollista luoda kahdessa vuodessa, niin miksi kukaan ei ole julkaissut mitään sellaiseen viittaavaa, vaan OpenAI ja kumppanit vain räpeltävät LLM-viritelmien kanssa? Missä on se tekoäly joka olisi edes esimerksiksi 5-vuotiaan lapsen tasolla?
Tuollainen tekoäly ei itsestään ihmisille ilmoita. Ihminen on välissä vain kykyjensä rajoissa.

Outoa ajatella, että AGI ylipäätään tulisi julki ensisijaisesti ihmisen esilletuomana. Paljon todennäköisempää on spontaani ilmestyminen.
 

Uusimmat viestit

Statistiikka

Viestiketjuista
295 232
Viestejä
5 048 813
Jäsenet
80 831
Uusin jäsen
KunKq

Hinta.fi

Back
Ylös Bottom