iPhone 12 Pro la scansione 3d LIDAR
Stampa e scansione 3D a "portata di mano"

Scansione LiDAR e stampa 3D di iPhone 12 Pro: cosa significherà?

Per anni le persone hanno speculato su quando o se la scansione 3D arriverà sui telefoni cellulari. Acquisizione di Apple di diverse società di scansione 3D e di progetto Tango di Google , alimentato infinite discussioni. Ma, come l’ acquisizione PrimeSense è stato molto parlato nel 2013 , l’ acquisizione LinX alimentato un sacco di speculazioni nel 2015, la fotocamera TrueDepth stava per cambiare tutto nel 2017 , e Arkit è sempre stato emozionante per noi, dal momento che le cose come il riconoscimento di oggetti e immagini la ricostruzione gioverebbe anche alla stampa 3D. La realtà è spesso un po ‘più simile alla melassa che gocciola che ai fulmini sognati. Le notti tarde nei bar e i sussurri silenziosi nei corridoi menzionavano enormi quantità di sensori acquistati e funzionanti con software di riparazione di file. Gli investimenti e i rilasci imminenti si sono rivelati necessari anni per essere completati.

Con miliardi di dispositivi in ​​tutto il mondo, la scansione 3D su smartphone potrebbe rendere la scansione 3D una tecnologia che molte persone usano quotidianamente. Inoltre, una capacità di scansione 3D nativa potrebbe permetterci di scolpire oggetti nel nulla o di personalizzarli tramite semplici app. In effetti, la potenza del software inciderebbe sul nostro problema che nessuno può modellare qualcosa in 3D. Affinché tutti possano essere coinvolti nella stampa 3D, avrebbero bisogno di un modo semplice per Twitter per inserire i loro progetti e idee.

Se guardiamo anche alla personalizzazione di massa, attualmente è trattenuta. Richiede uno sforzo per andare in un negozio e ottenere la scansione 3D. Se il tuo telefono è un buon scanner 3D, puoi scansionare te stesso e ottenere guanti unici stampati in 3D, o una mazza da golf o un poggiatesta per la tua auto. La personalizzazione di massa sarebbe una tecnologia per il tempo di inattività disponibile ovunque, soggetta a gratificazione quasi istantanea, se la scansione 3D fosse disponibile su tutti i telefoni. La scansione 3D basata sul telefono sarebbe la cosa migliore e più grande che potrebbe mai accadere al nostro settore al di là dei nostri sforzi per migliorarci.

La buona notizia è che la scansione 3D sui telefoni è qui … più o meno. Questa volta, finalmente accadrà … di nuovo. I nuovi iPhone di Apple supportano una serie di funzioni di scansione che potrebbero evolversi per avere un grande impatto per noi. Anche il supporto software per STL e cose come il riconoscimento di oggetti tramite la scansione 3D potrebbero avere un impatto. Sul fronte hardware, il Neural Engine del chip A14 consentirà applicazioni di machine learning. Il chip ha anche il 30% in più di prestazioni grafiche e un’elaborazione delle immagini più veloce che sarà molto utile per le applicazioni di scansione.

La fotocamera TrueDepth consente il riconoscimento facciale. Nel 2017, questo era uno scanner a luce strutturata che utilizzava un proiettore IR. Adesso è il momento del volo. Nel frattempo, sull’altra faccia dei modelli Apple Pro, ottieni tre fotocamere (principale, ampia e teleobiettivo), oltre a LiDAR. LiDAR è una tecnologia di scansione 3D più spesso utilizzata per oggetti delle dimensioni di un edificio o di una stanza. Apple sembra volerlo implementare per portare davvero oggetti AR nei nostri salotti o per abilitare applicazioni di scansione a misura di stanza. È dotato di uno scanner del tempo di volo in grado di misurare con precisione le distanze e catturare scene in un raggio di cinque metri.

Per Apple, ovviamente, essere in grado di muoversi in modo realistico negli ambienti di gioco e fare cose come provare virtualmente i prodotti sarà significativo. A casa, solo la possibilità di vedere quanto è grande la TV che hai trovato online o di vedere virtualmente come la tua nuova scrivania in piedi si adatterà alla tua casa potrebbe avere un grande impatto per l’eCommerce. Anche la prova virtuale dei vestiti potrebbe essere enorme, dal momento che gli acquirenti online restituiscono circa il 40% dei vestiti acquistati sul web.

Nel frattempo, il tipo di livello di dettaglio di cui avresti bisogno per la stampa 3D potrebbe non essere in vista. Il numero di punti probabilmente non sarà abbastanza numeroso. Non è chiaro se possiamo estrarre una nuvola di punti e non è ancora noto come funzionerebbe la riparazione di questa nuvola di punti.

Per Apple in questo momento, la misurazione e la scansione estremamente accurate delle stanze apriranno un intero mondo AR, oltre a molte possibilità nelle app, come ad esempio: provare nuovi colori di vernice, calcolare la quantità di carta da parati necessaria, adattare la tua nuova cucina, Scansione 3D e eBay i tuoi oggetti, calcola la tua mossa, canta insieme a Frank Sinatra, mettiti in una scena di un film, emoji 3D ecc. Con il richiamo del virtuale e delle app così forte, l’attrazione principale di Apple sembrerebbe essere nel stanza, non necessariamente un’enorme precisione su oggetti delle dimensioni di un softball. Con i vantaggi commerciali principalmente nella precisione nella stanza, noi nella stampa 3D potremmo trovarci la Cenerentola ignorata. mentre le sorellastre dell’e-commerce, della realtà aumentata e dei giochi ottengono tutta la tecnologia diretta a loro.

Una migliore realtà aumentata o un vantaggio nei giochi basati su realtà aumentata potrebbero essere il futuro completo di gran parte dell’industria dei giochi. Apple non può permettersi il lusso di perdere quella barca. Non dimentichiamo inoltre che gli scanner Time of Flight sono sui telefoni anche per un motivo molto importante: per migliorare i nostri selfie. Per quanto spesso pensiamo che nella stampa 3D siamo il centro del mondo, selfie migliori e immagini migliori sono una grande vittoria per Apple e li renderebbero più competitivi rispetto a Samsung e simili.

Apple .

Quindi, come figliastro ignorato, siamo lasciati a faticare nell’ombra? Forse no. Mentre il supporto completo della stampa 3D non sembra ancora in vista, ci sono modi per aggirare questo problema che possono essere molto fruttuosi. Con una maggiore potenza di calcolo e l’apprendimento generativo, molto potrebbe benissimo essere possibile. Il software può aiutare a ripulire e ricostruire i file, rendendoli impermeabili e molteplici per la stampa. Alla fine, qualcuno sarà in grado di estrarre abbastanza dettagli dagli scanner Apple iPhone per ottenere qualcosa da stampare e questo permetterà a molte persone di liberare la loro creatività. Ma ora possiamo fare qualcosa che in realtà potrebbe darci un percorso congiunto verso un mondo di telefoni Apple stampato in 3D.

Per questo, dovremo fare una piccola escursione nel mondo dei cecchini militari e della polizia. Quando un cecchino sta effettuando un tiro ravvicinato, mirare attraverso il mirino può essere sufficiente, ma i colpi a lunga distanza sono più difficili. I proiettili volano in un arco, quindi per un tiro più lungo, la caduta del proiettile deve essere stimata. Per tiri estremamente lunghi, non solo il vento ma anche la curvatura della terra deve essere compensata. Una variabile importante nel tentativo di calcolare come effettuare un determinato colpo è stimare la distanza che hai dal bersaglio. I telemetri newfangled possono farlo per te, ma un buon vecchio metodo analogico è il punto mil. Il mil-dot è un modello misurato sulla vista del tuo cannocchiale.

“La distanza tra i centri di due punti adiacenti su un mirino del reticolo MIL-Dot è uguale a 1 Mil, che è di circa 36” (o 1 iarda) a 1000 iarde, o 3,6 pollici a 100 iarde. “

“[L] Il modo più semplice per raggiungere un bersaglio è prendere l’altezza (o larghezza) del bersaglio in iarde o metri moltiplicata per 1000, quindi dividere per l’altezza (o larghezza) del bersaglio in MIL per determinare la distanza da bersaglio.”

E un esempio:

“Un cane della prateria alto 10” si inserisce tra il mirino verticale e la parte inferiore del primo punto MIL che equivale a 0,875 mil. Quanti metri ci sono? “

Nell’esempio del cecchino, spesso non conosciamo la portata del nostro obiettivo, quindi prendiamo un oggetto noto e, attraverso le sue dimensioni e un riferimento, possiamo stimare la portata. Ricordi quella nebulosa matematica del liceo con i triangoli? Se conosco alcuni lati posso calcolare gli altri. Con i nostri iPhone, saremo molto bravi a sapere quanto sono lontane le cose da noi attraverso i molti punti degli scanner del tempo di volo che sparano dal nostro sensore LIDAR. Il LIDAR spazerà continuamente a tutto ciò che vede. Con ARKit di Apple sappiamo di poter eseguire il riconoscimento degli oggetti. Attraverso un’app potremmo, quindi, includere molti oggetti di riferimento.

Riconoscendo lattine di Coca-Cola, modelli specifici di sedie, mobili IKEA, occhiali da sole o molti altri oggetti, potremmo confrontare la stima della gamma e le dimensioni con i valori noti memorizzati e aumentare la precisione della nostra gamma. Potremmo quindi anche stimare la nostra posizione nella stanza rispetto a tutte le distanze conosciute in un numero di passaggi. Queste informazioni potrebbero quindi essere confrontate con l’accelerometro e persino con il GPS. Tutto sommato, otterremo un’immagine molto più accurata di dove si trova lo scanner, come è orientato e dove si trova tutto nella stanza. Saremo in grado di conoscere molte cose anche con misurazioni più precise.

Se quindi possiamo scansionare in 3D un numero di oggetti utilizzando scanner 3D industriali altamente capaci, le curve e le misurazioni di questi oggetti di riferimento sarebbero ancora più accurate e sarebbero in grado di riempire più accuratamente le parti vuote delle nostre nuvole di punti e descrivere meglio gli oggetti. Potremmo persino usare la fotogrammetria o un altro metodo di scansione basato sulla fotocamera per riempire e ottenere trame migliori di oggetti stampati in 3D. Questo processo dovrebbe portarci molto più vicini all’ottenimento di mesh stampabili in 3D.

Idealmente, ovviamente, potrebbero essere confrontati anche i dati della fotocamera degli altri obiettivi e tre fotocamere potrebbero acquisire la stessa immagine e stimare più chiaramente il suo orientamento e ottenere il colore e la trama. In effetti, Apple lo fa già per le immagini :

“[L] a sistema cattura le immagini utilizzando entrambe le fotocamere. Poiché le due fotocamere parallele sono a una piccola distanza l’una dall’altra sul retro del dispositivo, caratteristiche simili presenti in entrambe le immagini mostrano uno spostamento di parallasse: gli oggetti che sono più vicini alla fotocamera si spostano di una distanza maggiore tra le due immagini. Il sistema di acquisizione utilizza questa differenza, o disparità , per dedurre le distanze relative dalla fotocamera agli oggetti nell’immagine, come mostrato di seguito.

Quindi sarebbe una questione di utilizzare la capacità di elaborazione neurale e di immagine del telefono per riemergere questa mesh con i dati di immagine corretti.

Parti di questo intero processo sarebbero fantasiose, ma sembra che potrebbe funzionare almeno per ottenere misurazioni più accurate e file che potrebbero essere usati per la stampa. Se quel file potesse anche avere informazioni sulla trama e sul colore applicate in modo coerente, sarebbe un passaggio completamente più difficile, ma facciamo schifo in ogni caso. Non sono sicuro al 100% se questa sia la risposta, ma nel complesso, penso che, sebbene potremmo non essere immediatamente in grado di estrarre molte stampe 3D dai dati LiDAR di iPhone, alla fine saremo in grado di farlo. A breve termine, mi aspetto che, per alcuni materiali e articoli ad alto contrasto, insieme a buoni articoli di riferimento, potremmo usare questa tecnologia per scansionare in 3D alcuni articoli stampabili in 3D.

Joris Peels da 3dprint.com

Accedi to leave a comment
Ma cos'è la Digital Trasformation di cui tanto si parla?
dal Mise