30 Marzo 2016
Stando a un nuovo report pubblicato da Bloomberg, la Microsoft Build 2016 (inizia tra poche ore: appuntamento alle 17:30 qui su HDblog.it per il keynote di apertura!) servirà anche da palcoscenico per illustrare una nuova visione del CEO Satya Nadella: viene definita Conversation as a platform, e si tratterà sostanzialmente di una serie di intelligenze artificiali sviluppate per interagire con gli utenti su alcuni argomenti specifici.
Un'invasione di bot / assistenti virtuali particolarmente evoluti e avanzati, insomma, che potranno avere i ruoli più disparati: alcuni potranno semplicemente discutere o fornire aiuto su un determinato argomento, altri potranno portare a termini compiti più o meno complessi. Ciò che conta è il veicolo con cui i comandi vengono trasmessi, ovvero la conversazione naturale.
Troveremo questi bot un po' ovunque, social network e instant messenger inclusi; altri potrebbero essere integrati nel sistema operativo dei nostri device. Per esempio, dovrebbe essere presentato un bot che, usando le immagini ricevute dallo smartphone, guiderà i non vedenti e descriverà loro l'ambiente circostante
Non solo: l'intenzione di Microsoft sarebbe di fornire anche un ambiente di sviluppo dedicato, noto come Bot Framework, che permetterà a chiunque di creare in autonomia il proprio bot.
Come tutte le protagoniste del settore, Microsoft sta esplorando da diverso tempo il campo dell'intelligenza artificiale, considerata da molti come una delle next big thing dell'informatica e in generale della tecnologia. Per quanto riguarda la nicchia specifica dei bot, la sua fortuna è stata altalenante. L'azienda ha un chatbot attivo in Cina e in Giappone da circa un anno e mezzo; si chiama Xiaoice (Rinna in Giappone), e in questo periodo ha collezionato ben 40 milioni di utenti, con conversazioni che raggiungono la media di 23 scambi di battute.
Il chatbot americano, inaugurato su Twitter appena la settimana scorsa, non è andato altrettanto bene: Tay, così si chiama, ha iniziato a scrivere tweet offensivi, violenti e razzisti dopo nemmeno 24 ore di permanenza online. Il bot è stato messo offline, il feed è stato ripulito, e l'azienda si è scusata pubblicamente incolpando un "attacco mirato" a una vulnerabilità dell'azienda condotto da un gruppo ristretto di persone. Ora il bot è tornato più o meno online, ma il suo profilo è stato reso privato.
Commenti
Varremo meno di un nostro stesso prodotto?
Sei un complottista quindi! xD
ci sono delle marmotte all'isola d'Elba che collezionano powerbank che si stanno suicidando in massa!
un complottista ti rispondetebbe che cio' che tu dici e' proprio lo scopo degli Illuminati...
Sta scherzando spero, perché a mio parere il concetto di assistente virtuale è già cambiato radicalmente. Cortana dovrebbe avvicinarsi molto di più ad Alexa, che al momento mi pare il migliore sulla piazza, mentre Google Now il più efficiente (meno cazzatelle e più info utili)
Ne riparliamo quando cortana o siri ci faranno i soffocotti in 3D con la voce solo pochi come [c 4 l l e a] ed altri uomini di scienzai riescono ad emozionarsi
speriamo ho sempre desiderato comandare un pc a voce e se mi fa anche da assistente meglio ancora , la voce però la scelgo io :P
Funziona meglio di trackbot?
In genere Telegram é comodo perche racchiude "tante app/bot" in sé.
abuso di assistenti virtuali è di aumentare i deficienti reali
Ho già l'app per quello
Tay è un bullo
Trackbot é utilissimo
Le macchine sostituiranno gli operai, della serie "varremo meno delle macchine = meno di zero".
Persino Chromebook?
#meglioTelegram
"Il chatbot americano, inaugurato su Twitter appena la settimana scorsa, non è andato altrettanto bene: Tay, così si chiama, ha iniziato a scrivere tweet offensivi, violenti e razzisti dopo nemmeno 24 ore di permanenza online."
Magari ha visto gli account di Salvini e Gasparri xD
mica detta... al giorno d'oggi le marmotte collezionano di tutto...
"Confezionava".
cortana per android ? :D
Ok che magari saranno più competenti del primo di turno che è stato messo lì a caso, ma poi non si rischia di annullare le relazioni umane che sono comunque alla base della piramide dei bisogni?
'Tay ha iniziato a scrivere tweet offensivi, violenti e razzisti', in pratica MS ha già creato l'intelligenza artificiale definitiva ma in nome del politically correct verrà sottoposta al beta testing del programma Ludovico.
Non riesco a farmeli piacere i bot, su Telegram cerco sempre i canali se ci sono
" incolpando un "attacco mirato" a una vulnerabilità dell'azienda condotto da un gruppo ristretto di persone"
si e c'era anche la marmotta che collezionava cioccolato