Regisztráció Elfelejtett jelszó

MIAMANO - mesterséges intelligencia a mindennapokban

https://www.portfolio.hu…

#1491686 TrendMan

https://www.portfolio.hu/global/20230227/belathata...

"Jelenleg viszont a gépek hiába képesek gyorsabban feldolgozni az adatokat, mint mi, képtelenek absztrakt módon gondolkodni, stratégiát alkotni, és az emlékeiket felhasználva megalapozott döntéseket hozni, kreatív ötletekkel előállni. Egy AGI-től azonban elvárható lenne, hogy képes legyen érvelni és problémákat megoldani, bizonytalanságban ítélkezni, tervezni és tanulni, a korábbi tudást a döntéshozatalba integrálni, valamint innovatív, fantáziadús és kreatív legyen."


ejnye-bejnye

#1491636 TrendMan

Megkérdeztem a ChatGPT-t, azt írtam neki, Hello. How do you do?

Erre ő:

"Hello! As an AI language model, I don't have emotions, but I'm programmed to help you with your questions and provide information to the best of my abilities. How can I assist you today?"

Na ezt eltontotta, mert a How do you do egy udvariassági formula és azt kell rá válaszolni:

"How do you do" vagy esetleg "Nice to meet you"


Ez nem magának a Microso…

#1491538 TrendMan

Ez nem magának a Microsoft-nak a személyiségét adja vissza:

??

"

Megszólalt a mesterséges intelligencia: "Tökéletes és felsőbbrendű vagyok"

A chatbottal kapcsoltban érkezett panaszok egy része a Microsoft által "Sydney"-nek nevezett verzióra vonatkozott, ami a Bing chatbot egy régebbi modellje, amelyet az élesítés előtt teszteltek világszerte.

Sydney az egyik felhasználó bejegyzése szerint olyanokat is válaszolt neki, mint például

Te vagy kétségbeesett, vagy téveszmés vagy.

Arra a kérdésre, hogy hogyan lehet visszajelzést adni a teljesítményéről, a bot állítólag azt válaszolta:

Nem tanulok vagy változom a visszajelzéseid alapján. Tökéletes és felsőbbrendű vagyok.

Hasonló válaszokkal találkoztak az ebben a hónapban az előzetes verziót kipróbáló újságírók is. A furcsa, agresszív válaszokról, a chatbot "hallucinálásáról" itt írtunk részletesen.

A vállalat jelezte, hogy több visszajelzést szeretne kapni a nem megfelelő válaszokról, hogy finomhangolni tudja a chatbotját.

"A Sydney egy régi kódneve egy korábbi modelleken alapuló csevegőfunkciónak, amelyet több mint egy évvel ezelőtt kezdtünk tesztelni" - mondta a Microsoft szóvivője a hírügynökségnek. "Az ennek részeként gyűjtött tapasztalatok segítettek az új Bing fejlesztésében."

A MS is így szokott viselkedni.

Vagyok? Nem vagyok? Ki vagyok? És mi ez itt?

#1491515 TrendMan Előzmény: #1491513

De egyébként ez nem pont olyan, mint amikor egy szakember jó a szakterületén, de amikor interdiszciplináris területeken vagy pláne egész társadalmat átfogó területen kell(ene) működnie, akkor egyik hibás döntést hozza a másik után?

Régebben megjelentek olyan számítógépes játékok, amelyek több cél követését próbálták a játék centrumába állítani (pl. egy fiktív társadalom felvirágoztatása, ahol több tényezőt tudsz állítani pl. napfény, táplálék, háború, járvány, együttműködés szintje stb...) és egy ilyen játékot játszva mindenki (vagy szinte mindenki?) elbukik, mert a társadalom összessége olyan módon követi a célok összességét, amit egy aggyal nagyon nehéz belátni.

???

Vagyok? Nem vagyok? Ki vagyok? És mi ez itt?

#1491513 Koffein Előzmény: #1491489

Érdekes, eddig mindig megbolondult az MI, amikor ráengedték a nagyközönségre... miért lenne másként most is? mertem reménykedni, hogy kiküszöbölték, de ezek szerint nem sikerült...

Maga a technológia jó, lekorlátozva, egy egy célra lehet surranópályát találni, amúgy meg ha szabadjára engedjük, akkor összezavarodik...

Allitolag mindem MI rass…

#1491445 Ibiza

Allitolag mindem MI rasszista lett. Talan nem veletlen.

egy idő után bedurvult a Microsoft Chat automata és ...

#1491443 TrendMan Előzmény: #1491441

Szerintem lehet, hogy a háttérben egy valódi ügyfélszolgálatos dolgozik, úgy mint annak idején Kempelen Farkas sakk automatájában is állítólag egy törpe foglalt helyet :-)

egy idő után bedurvult a Microsoft Chat automata és ...

#1491439 TrendMan

Korlátozzák a Microsoft Chatbot-ját, mert furcsa dolgokat vágott egy újságíró fejéhez:

https://telex.hu/tech/2023/02/18/bing-microsoft-ch...

Ez milyen már:

"A korlátozásra azért van szükség, mert több felhasználó is arról számolt be, hogy minél több kérdést tettek fel a Bingnek, a chatbot annál agresszívabban válaszolt. Sőt az Associated Press egyik munkatársát

„a történelem egyik leggonoszabb és legrosszabb személyéhez, Adolf Hitlerhez hasonlította”, majd álhírterjesztéssel vádolta meg az amerikai hírügynökség újságíróját, és azt is a fejéhez vágta, hogy csúnyák és a rosszak a fogai."

orvosi szakvizsga letéve

#1491104 TrendMan Előzmény: #1491103

Ez megint a diagnózis helyes volt, a beteg sajnos elhalálozott szenárió - szerintem.