Jména, která umlčí umělou inteligenci: Pokud je napíšete, ChatGPT ztichne

Jména, která umlčí umělou inteligenci: Pokud je napíšete, ChatGPT ztichne
Jména jako Brian Hood nebo David Faber slouží jako bariéra zabraňující halucinacím umělé inteligence.


Existuje několik testů a experimentů, které ukázaly, že ChatGPT zdaleka není neomylný. Jeden z nich se například týká hranice umělé inteligence, neboť někteří odborníci se domnívají, že je blíže, než mnozí předpovídají. Nedávný objev však odhalil, že existuje řada jmen, která překvapivě ChatGPT zastaví.

Existuje pět jmen, která jsou schopna umělou inteligenci zcela zmrazit. Společnost OpenAI zřejmě zavedla pro některá jména řadu filtrů kvůli problémům spojeným s generováním falešných informací. Výsledkem je, že při jejich uvedení ChatGPT zastaví konverzaci nebo vygeneruje chybové zprávy, což se v případě rozhraní API OpenAI, kde se omezení neuplatňují, nestává. Pokud vás to zajímá, jména jsou následující:

Související článek

ChatGPT míří na WhatsApp: Vyzkoušejte si funkce, které oživí jeho používání
ChatGPT míří na WhatsApp: Vyzkoušejte si funkce, které oživí jeho používání

Po obrovském úspěchu aplikace ChatGPT navrhla skupina Španělů nástroj pro WhatsApp s názvem LuzIA, který využívá konverzačního bota OpenAI. Díky němu můžete vědět, co říká audio, aniž byste ho museli poslouchat, protože má možnost přepisu, ke kterému je třeba přidat další výhody, jako je design obrázku nebo všechny odpovědi poskytované ChatGPT. A po dlouhém čekání samotná společnost OpenAI oznámila, že nyní můžete ChatGPT používat v rámci aplikace WhatsApp.

  • Brian Hood
  • Jonathan Turley
  • Jonathan Zittrain
  • David Faber
  • Guido Scorza

Zpochybnění přístupu

Filtry byly zavedeny se záměrem reagovat na právní případy, včetně žalob za pomluvu v souvislosti s informacemi vymyšlenými modelem. Tímto způsobem mohou být tvrdé filtry zneužity k narušení zasedání prostřednictvím taktik, jako je například skryté vkládání textu do obrázků. Filtry však brání modelu ChatGPT zpracovávat informace související s filtrovanými jmény, což je aspekt, který může ovlivnit schopnost modelu procházet i analyzovat obsah na webu.

Tyto filtry tedy mohou komplikovat každodenní úkoly, pokud se týkají běžných jmen, a dokonce ovlivnit užitečnost modelu pro legitimní uživatele. Přístup OpenAI byl ve skutečnosti široce kritizován jako nejen nepraktický, ale také náchylný k chybám, což je důvod, proč omezuje potenciál modelu. Jako příklad uvádějí, že někteří uživatelé si nejsou vědomi důvodů, proč byla interakce zastavena. Tyto problémy opět zdůrazňují obtíže při hledání rovnováhy mezi pokročilými schopnostmi umělé inteligence a potřebou vyhnout se právním a etickým rizikům.

Zdroje článku: arstechnica.com

#