これは、最近の発表の中で最も興味深いものの 1 つでした基調アップルから。のために考えたiPhone11、11 Pro および 11 Pro Max、テクノロジーディープフュージョン特に屋内で撮影した写真の品質を向上させる必要があります。機械学習。今日、iOS 13.2 ベータ版で提供されることがわかりました。
9 月初めに発表された iPhone トリプティクとのみ互換性があるため、Deep Fusion は多くのサポートを得て、屋内ショット (だけではありません) を改善したいと考えています。機械学習そしてニューラルネットワーク。
この新しいテクノロジーの動作原理はシンプルかつ洗練されています。iPhone 11 はシャッターが切れる前に 4 枚の写真を撮影し、シャッターが作動するとさらに 4 枚の写真を撮影します。最後の長時間露光ショットで、最大限のディテールを捉えるこの旅は最終的に終了します。
A13 Bionic の 8 つのニューラル コアが静かに動作するとき...
最初の 4 枚のショットが撮影されるとすぐに、A13 バイオニックニューラル エンジンの 8 つのコアが動作して、最高の画像を選択し、高品質の HDR 写真を作成します。 Apple の約束を守るならば、このプロセスの結果は、より詳細で、より鮮明で、そして何よりもより自然な最終ショットに他なりません。
Apple はまた、次の点で新しい SoC の機能を大いに期待しています。機械学習。このチップの AI は、特定の要素 (空、木の葉、さらには撮影対象の肌の色) のレンダリングを最適化するために、撮影シーンに応じて異なる方法で撮影画像を分析する役割を果たします。ただし、写真の構造と色の調整はニューラル ネットワークによって処理されます。GSMアリーナに注意してください。
新しいiPhoneにこのDeep Fusionテクノロジーが搭載されるかどうかには大きな疑問が残っている。後者は遅れてリリースされる予定ですが、iOS 13.2 ベータ版としてリリースされ、最初は開発者がアクセスでき、その後はパブリックベータ版として利用可能になります。最初はテッククランチ昨日、自分の参加可能性を発表しましたが、少し後に気が変わりました。
最新の iPhone で写真撮影においてすでに大きな進歩を遂げている Apple は、Deep Fusion を通じて、違いを生む機能を備えているかもしれません。すぐに返信してください...