Gli iPhone con iOS 14 vedranno riconosciuto meglio il movimento di braccia e corpo

Spread the love

A partire da iOS 14 e macOS Big Sur, gli sviluppatori saranno in grado di aggiungere la capacità di rilevare il corpo umano e le pose delle mani in foto e video nelle loro app. Secondo quanto si apprende con le recenti indiscrezioni che gravitano attorno al mondo Apple, il tutto potrebbe essere possibile utilizzando il framework Vision aggiornato di Apple, come spiegato nel corso della recente sessione WWDC 2020.

iOS 14
iOS 14

Le novità di iOS 14 per gli iPhone nella lettura dei movimenti

Questa valore aggiunto consentirà alle app di analizzare le pose, i movimenti e i gesti delle persone, consentendo un’ampia varietà di potenziali funzionalità. Apple fornisce alcuni esempi, tra cui un’app per il fitness in grado di tracciare automaticamente l’attività fisica eseguita da un utente, un’app per la formazione sulla sicurezza che potrebbe aiutare i dipendenti a utilizzare l’ergonomia corretta e un’app per l’editing dei media in grado di trovare foto o video basati sulla posa simile.

Il rilevamento della posa delle mani in particolare promette di offrire una nuova forma di interazione con le app. La dimostrazione di Apple ha mostrato una persona che tiene insieme il pollice e l’indice e quindi è in grado di disegnare in un’app per iPhone senza toccare il display. Inoltre, le app potrebbero utilizzare il framework per sovrapporre emoji o grafica sulle mani di un utente che rispecchiano il gesto specifico, come un segno di pace. Insomma, una vera e propria rivoluzione quella alla quale potremmo andare incontro attraverso l’aggiornamento iOS 14 nel corso dei prossimi mesi.

Il framework è in grado di rilevare più mani o corpi in una scena, ma gli algoritmi potrebbero non funzionare altrettanto bene con le persone che indossano guanti, si chinano, sono capovolte o indossano abiti traboccanti o simili a vesti. L’algoritmo può anche incontrare difficoltà se una persona è vicina al bordo dello schermo o parzialmente ostruita.

Funzionalità simili sono già disponibili tramite ARKit, ma sono limitate alle sessioni di realtà aumentata e funzionano solo con la fotocamera posteriore sui modelli compatibili di iPhone e iPad. Con il framework Vision aggiornato, gli sviluppatori hanno molte più possibilità. Non resta che attendere l’aggiornamento iOS 14.

Lascia un commento