![]() |
市場調査レポート
商品コード
1518884
DJI Automotiveの自動運転事業の分析(2024年)Analysis on DJI Automotive's Autonomous Driving Business, 2024 |
||||||
|
DJI Automotiveの自動運転事業の分析(2024年) |
出版日: 2024年07月10日
発行: ResearchInChina
ページ情報: 英文 140 Pages
納期: 即日から翌営業日
|
DJI Automotiveの調査:独自の技術ルートでNOA市場をリードする。
2016年、DJI Automotiveの社内技術者は、ステレオセンサー+ビジョンフュージョン測位システム一式を自動車に搭載し、走行に成功しました。DJI Automotiveがドローン分野で蓄積してきた知覚、測位、判断、計画などの技術は、インテリジェントドライビング分野への移転に成功しました。
DJI Automotiveの創業者と経営陣のほぼ全員が、DJIのドローンプロジェクト出身です。DJI Automotiveの設立当初のメンバーは10人程度で、主に当時のDJIのFlight Control DepartmentとVision Departmentから一時的に移籍した代表者で構成されていました。
DJIはインテリジェントロボットの研究に特化した企業であり、ドローンと自動運転車はインテリジェントロボットの異なる形態であると主張しています。DJIは独自の技術ルートにより、NOAの量産と利用でリードしています。DJI Automotiveの予測では、2025年に約200万台の乗用車がDJI Automotiveのインテリジェントドライビングシステムを搭載して走行します。
ステレオビジョンセンサーの継続的な最適化
DJI Automotiveのコア技術の1つはステレオビジョンです。GPSなどの他のセンサーが故障しても、ステレオカメラの視覚認識に基づいて、ドローンはホバリング、障害物回避、速度測定などができます。
ステレオビジョン技術を自動運転車に応用した後、DJI Automotiveは、異なる自動運転レベルの要件に応じてステレオビジョンセンサーを最適化し続けています。
2023年、NOAのニーズを満たすため、DJI Automotiveは第2世代の慣性ナビゲーションステレオビジョンシステムを発売しました。このシステムは、カスタマイズされた光学偏光板を追加することで全体的なレンズフードをなくし、より優れた自己較正アルゴリズムを使用してリジッドコネクティングロッドをキャンセルします。これにより、センサーの取り付けが容易になり、2台のカメラ間の距離は180mmから400mmまでフレキシブルに設定できます。リジッドコネクティングロッドの廃止は、ステレオビジョンセンサーの大きな進歩であり、ステレオカメラをより多くのシナリオに利用することを可能にします。
L3自動運転のニーズに基づき、DJI Automotiveは2024年、LiDAR、ステレオセンサー、長焦点モノカメラ、慣性ナビゲーションを組み合わせたLiDARビジョンシステムを発表しました。現在の市場で一般的な「LiDAR+フロントカメラ」ソリューションと比較すると、このシステムは100%の性能を可能にし、すべての機能を置き換える一方で、コストを30%~40%削減することができます。統合されたデザインのおかげで、「LiDAR-vision」ソリューションはキャビン全体に組み込むこともでき、全体的な搭載コストを削減することができます。
「LiDAR-vision」ソリューションは、車両の縦方向制御の安全性をさらに高めることができます。LiDARの正確な測距能力と照明に対する堅牢性により、「LiDAR-vision」ソリューションは、近距離でのカットイン、都市部での複雑な交通流、交通弱者(VRU)への対応、任意の障害物回避、迂回、夜間のVRUなどのシナリオにおいて、インテリジェントドライビングシステムの安全性と快適性をさらに向上させることができます。
データ取得とシミュレーションにドローン技術を使用
3つの自動運転データ取得方法のうち、車両による取得がもっとも一般的ですが、有効データの割合が低く、周辺車両の実挙動に干渉しやすく、センサーの死角にあるデータを記録できません。もう1つの方法はフィールドでの取得ですが、柔軟性が低く、信頼性が不十分です。
RWTHアーヘン大学の自動車技術研究機関であるfkaの綿密な調査と、DJI Automotiveの過去2年間の実践によると、ドローンによる航空測量データ取得には明らかな利点があります。ドローンは、より豊富で完全なシナリオデータを収集することができ、対象車両の死角にある全車両の空撮客観写真を障害物なしで直接収集することができ、より現実的で干渉のない人間の運転行動を反映し、特定の道路区間や特殊な運転シナリオ、例えばオン/オフランプや頻繁なカットインなどにおいて、より効率的にデータを収集することができます。
当レポートでは、DJI Automotiveの自動運転事業について調査分析し、同社のコア技術やソリューション、開発動向などの情報を提供しています。
Research on DJI Automotive: lead the NOA market by virtue of unique technology route.
In 2016, DJI Automotive's internal technicians installed a set of stereo sensors + vision fusion positioning system into a car and made it run successfully. DJI Automotive's technologies such as perception, positioning, decision and planning accumulated in the drone field have been successfully transferred to intelligent driving field.
Almost all founding and management team members of DJI Automotive came from DJI's drone projects. DJI Automotive had only about 10 members at the beginning, mainly composed of representatives temporarily transferred from the Flight Control Department and Vision Department of DJI at that time.
DJI claims that it is a company specializing in the research of intelligent robots, and drones and autonomous vehicles are different forms of intelligent robots. Relying on its unique technology route, DJI holds lead in the mass production and application of NOA. By DJI Automotive's estimates, around 2 million passenger cars taking to road will be equipped with DJI Automotive's intelligent driving systems in 2025.
Continuously optimize stereo vision sensors
One of the core technologies of DJI Automotive is stereo vision. Even when other sensors like GPS fail, based on visual perception of the stereo camera, drones can still enable hovering, obstacle avoidance, and speed measurement among others.
After applying stereo vision technology to autonomous vehicles, DJI Automotive continues to optimize stereo vision sensors according to requirements of different autonomous driving levels.
In 2023, to meet the needs of NOA, DJI Automotive launched the second-generation inertial navigation stereo vision system, which eliminates the overall lens hood by adding a customized optical polarizer and cancels the rigid connecting rod using a better self-calibration algorithm. This makes it easier to install the sensor, and the distance between two cameras can be flexibly configured from 180 mm to 400 mm. Elimination of the rigid connecting rod is a huge progress in stereo vision sensors, allowing stereo cameras to be applied in much more scenarios.
Based on the needs of L3 autonomous driving, in 2024 DJI Automotive introduced a LiDAR-vision system, which combines LiDAR, stereo sensor, long-focus mono camera and inertial navigation. Compared with the currently common "LiDAR + front camera" solution on the market, the system can reduce the costs by 30% to 40%, while enabling 100% performance and replacing all the functions. Thanks to the integrated design, the "LiDAR-vision" solution can also be built into the cabin as a whole, reducing the overall installation costs.
The "LiDAR-vision" solution can further enhance safety in vehicle longitudinal control. Thanks to LiDAR's precise ranging capabilities and robustness to illumination, the "LiDAR-vision" solution can further improve safety and comfort of intelligent driving system in such scenarios as cut-in at close range, complex traffic flow in urban areas, response to vulnerable road users (VRU), arbitrary obstacle avoidance, detour, and VRU at night.
Use drone technologies for data acquisition and simulation
Among the three autonomous driving data acquisition methods, acquisition by vehicles is the most common, but the proportion of effective data is low, and it is easy to interfere with real behaviors of surrounding vehicles, and it is unable to record data in blind spots of sensors. Another method is acquisition in field, with low flexibility and insufficient reliability, a result of angle skew and low image accuracy.
According to the in-depth research by fka, the automotive technology research institute of RWTH Aachen University, and DJI Automotive's own practices in the past two years, aerial survey data acquisition by drones has obvious advantages. Drones can collect richer and more complete scenario data, and can directly collect aerial objective shots of all vehicles in blind spots of the target vehicle without obstruction, reflecting more realistic and interference-free human driving behaviors, and more efficiently collecting data in specific road sections and special driving scenarios, for example, on/off-ramps and frequent cut-ins.
Why does the implementation of vision-only autonomous driving suddenly accelerate?
Why has the pace of implementing vision-only technology solutions suddenly quicken since 2024? The answer is foundation models. The research shows that a truly autonomous driving system needs at least about 17 billion kilometers of road verification before being production-ready. The reason is that even if the existing technology can handle more than 95% of common driving scenarios, problems may still occur in the remaining 5% corner cases.
Generally, learning a new corner case requires collecting more than 10,000 samples, and the entire cycle is more than 2 weeks. Even if a team has 100 autonomous vehicles conducting road tests 24 hours a day, the time required to accumulate data is measured in "hundred years" - which is obviously unrealistic.
Foundation models are used to quickly restore real scenarios and generate corner cases in various complex scenarios for model training. Foundation models (such as Pangu model) can shorten the closed-loop cycle of autonomous driving corner cases from more than two weeks to two days.
Currently, DJI Automotive, Baidu, PhiGent Robotics, GAC, Tesla and Megvii among others have launched their vision-only autonomous driving solutions. This weekly report summarizes and analyzes vision-only autonomous driving routes.