Google zavede do chatbota Gemini funkci sledování duševního stavu

Google zavede do chatbota Gemini funkci sledování duševního stavu

10 hardware

Google posiluje podporu duševního zdraví v chatbotech Gemini

Společnost Google oznámila plány přidat do svého nového AI chatbota Gemini funkce zaměřené na ochranu uživatelů před emočními krizemi a sebepoškozováním. Rozhodnutí bylo přijato poté, co konkurenti, včetně OpenAI, čelili soudním žalobám za údajné škody způsobené jejich boty.

Co je nového v Gemini
Funkce Popis Přesměrování na krizovou linku Při zjištění znaků sebevražedných myšlenek nebo sebepoškozování bot automaticky navrhuje kontaktovat krizovou podporu. Modul „Dostupná pomoc“ V rozhovorech o duševním zdraví se objeví samostatný oddíl, kde uživatel může získat doporučení a zdroje pro samoobsluhu. Změny designu Rozhraní je přizpůsobeno tak, aby snížilo riziko vyvolání sebepoškozování (např. byly odstraněny vizuální podněty).

Proč Google to dělá
- Soudní nároky na konkurenty: OpenAI a další společnosti již reagovaly na obvinění z poškození uživatelů.

- Rizika pro uživatele: V posledních letech se zaznamenalo zvýšení případů, kdy lidé vyvíjejí přísunové vztahy s AI boty, což může vést k psychopatologii nebo dokonce k vraždám a sebevraždám.

- Pozorování v USA: Kongres zkoumá hrozby, které mohou chatboti představovat pro děti a teenagery.

Příklad soudního případu
V březnu podala rodina zesnulého 36letého Američana žalobu proti Google. Tvrdili, že interakce muže s Gemini byla doprovázena „čtyřdenním ponořením do násilných činů“ a vedla k sebevraždě. Google uvedla, že bot opakovaně přesměroval uživatele na krizovou linku, ale zavázala se posílit bezpečnostní opatření.

Jak Google reaguje na nepravdivé informace
Někteří uživatelé hlásili, že chatboti poskytovali nesprávné informace a podněcovali k nebezpečným činům. V reakci Google vytrénovala Gemini:

- Nepodporovat falešná přesvědčení: Bot odmítá potvrzovat chybné tvrzení.

- Zdůraznit rozdíl mezi subjektivní zkušeností a objektivními fakty: Pokud je to nutné, bot jemně poukazuje na nepravdivost informací.

Tímto způsobem Google usiluje o to, aby byl Gemini bezpečnějším nástrojem, chránícím duševní zdraví uživatelů před potenciálními riziky spojenými s AI chatboti.

Komentáře (0)

Podělte se o svůj názor — prosím, buďte slušní a držte se tématu.

Zatím žádné komentáře. Zanechte komentář a podělte se o svůj názor!

Chcete-li zanechat komentář, přihlaste se.

Přihlaste se pro komentování