Apple meletakkan dasar untuk pengembangan augmented reality melalui iOS 16 API | Oleh Anupam Chugh | Juni 2022

Programming

[ad_1]
Halo Sahabat di suratpembaca.web.id. Dalam kesempatan ini kita akan mengupas tentang Linux yaitu Apple meletakkan dasar untuk pengembangan augmented reality melalui iOS 16 API | Oleh Anupam Chugh | Juni 2022

.

Mudah-mudahan postingan mengenai Apple meletakkan dasar untuk pengembangan augmented reality melalui iOS 16 API | Oleh Anupam Chugh | Juni 2022

dapat memberikan manfaat bagi Sahabat semua. Mari baca postingan ini
hingga tuntas.

Tanpa mengatakan itu, Apple sedang mempersiapkan pengembang untuk membangun aplikasi untuk perangkat AR / VR mereka yang sangat dinanti.

Sumber: Apple

Ketika pidato utama Apple di WWDC 2022 dimulai, dunia dengan penuh semangat menunggu pengumuman headset realitas hibrida yang banyak dibicarakan.

Paling tidak, kotak alat yang mirip dengan DTK M1 diharapkan untuk pengembang. Lebih dari itu, karena ada beberapa rumor tentang kemungkinan pengumuman realitasOS. Tetapi acara WWDC lain diadakan tanpa menyebutkan proyek paling ambisius Apple.

Apa yang lebih membingungkan? Pada RealityKit Dan SceneKit Kerangka kerja jarang menerima pembaruan apa pun tahun ini. Sebagai gantinya, kami disambut dengan Mac yang mendukung M2, pengelola panggung di iPadOS, iOS yang dimodifikasi, dan peningkatan signifikan ke Carplay.

Headset augmented reality, yang dulu diharapkan akan tersedia pada tahun 2020 dan akhirnya digulirkan kembali ke tahun 2023, sekarang ditunda lebih lanjut – dengan tahun 2024.

Dalam membela Apple, kemajuan yang hati-hati dapat dimengerti. Agar produk pemula mereka dapat diterima secara luas, diperlukan integrasi yang lebih intensif ke dalam ekosistem mereka, dan juga menggairahkan pengembang untuk membangun metawars.

Berkat kesinambungannya, ekosistem Apple kini lebih terintegrasi dari sebelumnya. Saya tidak dapat menyebutkan fitur iOS 16 baru yang memungkinkan Anda menggunakan iPhone sebagai webcam untuk Mac (sepertinya uji beta tentang cara kerja headset Apple dengan iPhone).

Pada saat yang sama, meskipun tidak ada berita tentang pengembangan realityOS, pembuat iPhone telah membuat peningkatan signifikan pada API dan kerangka kerjanya untuk membentuk pengembang untuk masa depan dengan augmented reality.

Mari kita lihat beberapa API baru yang diumumkan selama WWDC 2022. Beberapa di antaranya terkenal dan mendapat banyak perhatian selama WWDC 22. Namun, dari sudut pandang pengembangan AR / VR, peran yang dimainkan API ini selama waktu itu tidak terlalu terlihat. Peristiwa

Dengan iOS 15, Apple memperkenalkan fitur Teks Langsung untuk mengekstrak teks dari gambar. Di iOS 16, mereka telah meningkatkan semuanya dengan merilis Live Text API untuk menangkap teks dari gambar dan bingkai video dengan mudah. Diterbitkan sebagai bagian dari VisionKit Kerangka, DataScannerViewController class memungkinkan Anda untuk mengonfigurasi parameter yang berbeda untuk pemindaian. Di bawah penutup, API Teks Langsung dari VNRecognizeTextRequest Untuk mengenali teks

Sekilas, fitur Live Text API terlihat seperti lensa Google pada steroid. Namun, pikirkan saja kemungkinannya ketika gadget Apple besar berikutnya ada di depan mata Anda. Untuk memulai, bayangkan memutar kepala Anda untuk mengekstrak informasi dengan cepat dengan mata Anda. Ya, sebelumnya dimungkinkan di iOS 15 untuk melacak kepala menggunakan kesadaran spasial AirPods. CMHeadphoneMotionManager. Sekarang gabungkan suara ruang baru yang disesuaikan dari iOS 16 dan saya dapat melihat mekanisme VR berlangsung.

Demikian juga, dua kemajuan dalam PDFKit Kerangka kerja – kemampuan untuk mengurai bidang teks dan mengonversi halaman dokumen menjadi gambar – sangat penting untuk menciptakan pengalaman yang kaya lensa AR.

Sumber: Video WWDC 2022 – PDFKit

Untuk memastikan bahwa perangkat augmented reality Apple bukan hanya jam tangan pintar di wajah Anda, penting untuk menyediakan seperangkat alat untuk berinteraksi dengan teks, gambar, dan grafik.

Dengan diperkenalkannya dua API pengenalan gambar yang kuat, saya pikir pembuat iPhone berada di jalur yang benar. Jalur yang mengarah ke aplikasi AR / VR dengan antarmuka interaktif yang kaya.

Lupakan teks dan gambar untuk sesaat, iOS 16 juga telah mengubah fitur Dikte, memungkinkan pengguna untuk beralih antara suara dan sentuhan dengan mulus.

Jadi, Anda mungkin berjalan menyusuri lorong dan ingin mengedit pesan teks di ponsel Anda dengan cepat. Di iOS 16, Anda dapat dengan cepat menggunakan suara Anda untuk mengubah teks dengan mudah.

Ingin lebih? Pada Speech Kerangka kerja telah sedikit ditingkatkan – kemampuan untuk memindahkan tanda baca SFSpeechRecognitionRequest melalui addsPunctation. Saya optimis bahwa ini akan menciptakan aplikasi komunikasi yang kaya karena telah menemukan jalannya ke subtitle langsung di panggilan FaceTime.

Dari perspektif realitas campuran, ini adalah besar Perubahan. Menggunakan suara untuk memasukkan teks mengurangi ketergantungan kita pada keyboard di dunia virtual reality. Apple juga memudahkan integrasi Siri dengan aplikasi baru App Intents Kerangka

Di iOS 16, sejumlah kontrol UI baru – sebagian besar di SwiftUI – diumumkan sebagai kerangka kerja yang menjanjikan solusi satu atap untuk membangun aplikasi di semua platform Apple.

Di antara rangkaian fitur SwiftUI, perubahan dalam WidgetKit Kerangka kerja ini semakin menggelitik minat saya. Dengan iOS 16, pengembang sekarang dapat membuat widget untuk layar kunci. Anda juga dapat menggunakan kode yang sama untuk membuat widget untuk layar jam yang berbeda. Kami juga dapat membuat aktivitas langsung di dalam WidgetKit Untuk memberikan update real-time kepada pengguna.

Saya benar-benar merasa bahwa widget akan menjadi masa depan aplikasi – setidaknya di ruang realitas virtual / realitas virtual karena pengguna ingin mengonsumsi informasi dan menelusuri konten tanpa membuka aplikasi.

Selain WidgetKit, kami memiliki alat baru WeatherKit Kerangka kerja untuk membantu aplikasi dan widget Anda tetap up to date dengan informasi cuaca terbaru. Berikut adalah ikhtisar singkatnya Bagaimana tampilannya di layar kunci.

Di luar kerangka kerja, SwiftUI juga memberi kami banyak kontrol kecil – seperti Gauges, Yang terintegrasi secara teratur dengan widget. Lalu disana SpatialTapGesture – Satu gerakan untuk melacak lokasi benturan dalam tampilan SwiftUI.

Saya terutama menyukai ImageRenderer API yang memungkinkan Anda mengonversi tampilan SwiftUI menjadi gambar. dengan Transferable Protokol membuat menyeret dan menjatuhkan elemen media di seluruh aplikasi jauh lebih mudah – bahkan lebih dari sekarang kami memiliki kontrol berbagi asli di SwiftUI. Berikut adalah tampilan bagaimana menyeret dan menjatuhkan menyebabkan Anda memotong subjek dari foto dan membagikannya di aplikasi lain:

Sumber: Apple

Untuk membangun aplikasi interaktif untuk headset realitas hibrida, metode kami untuk berinteraksi dengan teks, gambar, suara, grafik, dan bentuk media lainnya harus lebih efisien.

Saya pikir Apple telah mengambil langkah signifikan ke arah ini, tidak hanya melalui antarmuka pengguna dan kontrol gerakan yang disebutkan di atas, tetapi juga melalui peningkatan. SharedPlay API, baru Shared With You Kerangka, dan Collaboration API.

Ini semua terlihat menjanjikan untuk membangun headset Apple yang sangat dinanti.

Pada Background Assets Framework adalah alat lain yang belum dipertimbangkan. Saya pikir untuk mengelola unduhan file besar dalam mode berbeda dari program diperkenalkan, kemungkinannya berada di luar alat ini.

Dengan mengunduh aset 3D dari cloud, kami dapat dengan cepat membangun dan mengirim aplikasi augmented reality dengan paket yang jauh lebih kecil.

Demikian pula, RealityKit Kerangka tidak menerima perubahan signifikan. Tapi Apple diam-diam meluncurkan API RoomPlan baru.

Dengan dukungan untuk ARKit 6 (yang telah mengalami peningkatan signifikan tahun ini), Swift API hanya mendukung pemindaian ruangan dan pemodelan 3D.

Saat ini, RoomPlan API dapat dianggap sebagai pengembang Object Capture API, tetapi dapat dipertimbangkan dalam istilah AR / VR, mengingat fakta bahwa headset augmented reality Apple memiliki sensor LiDAR dan beberapa kamera. RoomPlan akan menjadi game. Pengubah untuk Pengembang Harapkan banyak aplikasi augmented reality yang memungkinkan Anda merombak rumah.

Meskipun ini adalah API utama yang menurut saya akan sesuai untuk augmented reality di masa depan, Spatial , Adalah kerangka kerja baru lainnya yang memungkinkan untuk bekerja dengan matematika 3D dasar. Ini mungkin membuktikan logamnya dalam berurusan dengan grafis di dunia maya.

Pada akhirnya, Apple tidak mengatakan sepatah kata pun tentang aplikasi headset AR / VR-nya, tetapi API baru yang dirilis tahun ini akan memainkan peran kunci dalam menghubungkan semua komponen untuk pengembangan Metavars.

Penting untuk mempersiapkan pengembang untuk membangun aplikasi untuk ekosistem baru saat ini. Lagi pula, agar suatu produk dapat diterima secara luas, harus ada ekosistem aplikasi yang matang – yang membutuhkan daya tarik pengembang.

Itu tadi pembahasan tentang Apple meletakkan dasar untuk pengembangan augmented reality melalui iOS 16 API | Oleh Anupam Chugh | Juni 2022

, terimakasih telah mengunjungi website saya, semoga postingannya ada manfaatnya ya.

[ad_2]

Source link

Tinggalkan Balasan

Alamat email Anda tidak akan dipublikasikan.