După ce în presă au apărut relatări despre presupusul alter ego al AI-ului ChatGPT, Microsoft anunță Bing Chat tones, o nouă opțiune selectabilă care permite ajustarea răspunsurilor generate după criterii de nuanță.
Astfel, utilizatorii Bing Chat vor putea opta între răspunsuri mai precise, echilibrate sau creative, AI-ul dezvoltat de Microsoft devenind mai serios sau mai „glumeț”:
„Vom începe să testăm o opțiune suplimentară care vă permite să alegeți tonul chatului de la mai precis – care se va concentra pe răspunsuri mai scurte, mai concentrate pe căutare – până la echilibrat, la mai creativ – care vă oferă răspunsuri mai lungi și mai discutabile.”
„Scopul este de a vă oferi mai mult control asupra tipului de comportament de chat pentru a vă satisface cel mai bine nevoile”, a spus echipa Bing.
Într-o demonstrație de încredere față de AI-ul care pe alocuri a arătat o impredictibilitate înfricoșătoare, Microsoft relaxează limitele de chat introduse în regim de urgență pentru limitarea răspunsurilor confuze și, uneori, agresive generate. Astfel, Bing Chat permite acum adresarea a până la 6 întrebări per sesiune și un total de 60 pe zi (față de 5/50), pentru o „utilizare zilnică mai naturală a Bing.”
Thanks for all your feedback on Bing chat limits. As of today, we have increased to 60 chats per day and shortly we will move to 100. And your searches will no longer count against your chat total. More to come as we improve the model responsibly. Let us https://t.co/O2lljZ8jWe… https://t.co/DnsLA9lozs
— Yusuf Mehdi (@yusuf_i_mehdi) February 21, 2023
În continuare, Redmond plănuiește să mărească limita zilnică la 100 de chat-uri totale, căutările normale nefiind incluse în numărul total de chat-uri.
Anunțată pe 7 februarie, versiunea Bing Search augmentată tehologiile OpenAI de inteligență artificială oferă două funcții principale, chat și compose, accesibile din bara laterală. Compose poate fi folosită pentru a genera veritabile esee pe subiecte dintre cele mai diverse, însă Chat este opțiunea cea care a ridicat cele mai mari semne de îngrijorare. Încercând să explice comportamentul ciudat al lui Bing Chat , Microsoft susține că modelul său AI încearcă doar să imite tonul utilizatorului, conversațiile prea lungi putând devia de la subiect în moduri greu de anticipat, AI-ul fără chiar să dezvolte o personalitate proprie.