Per quelli di noi che sanno cosa vuol dire soffrire, sappiamo quanto sia difficile andare avanti, specialmente se la perdita è stata improvvisa. In molti modi, può essere un'esperienza terrificante rendersi conto che stai iniziando a dimenticare le piccole cose dei tuoi cari, inclusa la loro voce.
Poiché il dolore è un'esperienza umana universale, molti di noi darebbero qualsiasi cosa per ascoltare di nuovo le voci dei nostri cari, anche per un momento. Per questo motivo, non c'è da meravigliarsi se Amazon ha annunciato il suo piano per il rilascio di una funzionalità di Alexa che potrebbe aiutare le persone ad andare avanti.
Alexa di Amazon può suonare come la persona amata defunta
Secondo a rapporto Reuters, Amazon sta sviluppando un sistema che consente ad Alexa di imitare le voci umane. In una conferenza a Las Vegas, Rohit Prasad di Amazon ha condiviso come l'assistente virtuale di Amazon potrebbe potenzialmente imitare la voce dei nostri cari utilizzando solo 60 secondi di audio.
Durante la pandemia, Prasad ha affermato che "così tanti di noi hanno perso qualcuno che amiamo". Con questo, Amazon sta trovando nuovi modi per "far durare i ricordi" con Alexa.
Nel tentativo di visualizzare come utilizzare la funzione, la demo di Amazon includeva il ritratto di un bambino che chiedeva: "Alexa, puoi la nonna ha finito di leggermi Il mago di Oz?" In seguito, ad Alexa è stato mostrato di modulare la sua voce in modo che suonasse come quella del bambino nonna.
Amazon non ha rilasciato ufficialmente una data per il lancio della funzione di imitazione vocale. Tuttavia, mentre la demo ha toccato alcune corde del cuore, alcuni scettici non sono sicuri che la funzione si limiterà solo ad aiutare le persone a chiudere.
Per anni, le persone hanno messo in guardia su tutto il modi in cui l'IA è pericolosa. Ma mentre ci sono molti comuni miti sull'intelligenza artificiale che non sono vere, ci sono alcune minacce che sono molto reali.
Cosa significa per gli utenti la funzione di imitazione vocale di Amazon
In tempi recenti, il tema dell'imitazione della voce è stato oggetto di accesi dibattiti con l'ascesa della tecnologia deep fake e delle reti di intelligenza artificiale che hanno acquisito un certo grado di sensibilità. Inoltre, molte aziende tecnologiche hanno già volontariamente limitato l'accesso alla loro tecnologia di imitazione vocale per evitare una serie di rischi come il furto di identità e la frode.
Tuttavia, solo il tempo dirà se il tentativo di Amazon di utilizzare la tecnologia di imitazione vocale sarà davvero utilizzato per facilitare il dolore di perdere una persona cara o semplicemente essere un altro strumento che i cattivi attori possono usare per trarre vantaggio dagli altri le persone.
Anche se perdere una persona cara è un'esperienza dolorosa, potrebbe esserci un modo migliore per immortalare la loro somiglianza, che non include l'assistente di Amazon.