Titre : | Control of Nonlinear Systems by Visual Servoing : Visual object tracking for a quadrotor using image-based visual servoing |
Auteurs : | TOUIL DJAMELEDDINE, Auteur ; Nadjiba Terki, Directeur de thèse |
Type de document : | Monographie imprimée |
Editeur : | Biskra [Algerie] : Université Mohamed Kheider, 2020 |
Langues: | Français |
Mots-clés: | Visual object tracking,visual servoing,HSV,BA,PSO,IBVS,quadrotor |
Résumé : |
Visual servoing has undergone major developments in recent years in the field of robotics.
Since digital cameras are less expensive, lighter, and can potentially provide the robot equipments with a lot of information, which potentially promotes visual object tracking methods to be very promising for implementation in real-time applications. Through this thesis, we focus on the development system for a real tracking application basing on a visual servoing approach and of new visual tracking methods. To reach this goal, we draw two essential sub-objectives distributed into two parts. The first part is dedicated to the presentation of two object tracking methods that can determine the object’s trajectory over a sequence of images, whatever its shape. Although many object tracking methods have been developed over the last few years, some difficulties such as occlusion, fast motion, scale variation, and illumination variation can lead these methods to fall into tracking failure cases. We are particularly interested in improving the correlation filter-based method, which is one of the most effective tracking methods for real-time applications thanks to its simplicity. The main principle of these methods relies on the learning of the filter model in the frequency domain by using the Fourier transform to obtain a high precision with a reduced calculation complexity. However, Fourier transformation can cause undesirable effects, which can degrade the tracking quality. This makes these methods unable to distinguish between the target and its background. In this context, the first proposed method treats this limit by learning models of correlation filters via a convolutional neural network (CNN) features in the spatial domain using the PSO algorithm. In addition, we propose the HSV-based energy condition that has enriched the learning task by combining the RGB and HSV color bases. The second method learns the filter’s model in the frequency domain using the histogram of gradient (HOG) features to enable their implementation in real-time. We treat the drawback of boundaries in the frequency domain by applying a cosine window on feature channels. Furthermore, we adopt a re-detection module to improve the quality of tracking aginst the precited challenging cases The two proposed methods are validated on three reference datasets, OTB-50, VOT 2016 in the case of short-term tracking and UAV20L in the case of long-term tracking. The second part is dedicated to the design of an image-based controller taking into account both the quadrotor’s dynamics and the target’s motion during the tracking process, to accurately preserve it in the field of view (FOV). We adopt the concept of image-based visual servoing (IBVS) in which the computation of the control law is achieved by minimizing the error between the desired visual primitives and current primitives extracted from the image information. Lastly, we demonstrate through a virtual application that the proposed HOG-based tracking method can work reliably using the quadrotor’s camera to track two targets of variable sizes and distances, also the efficiency of our system in dealing with occlusion, and scale variation, demonstrating the applicability of the IBVS-HOG system. يمر موضوع الصيانة البصرية بتطورات كبيرة في السنوات الأخيرة في مجالات الروبوتات، ونظرًا لأن الكاميرات الرقمية يمكن أن تزود الروبوت بالكثير من المعلومات، فهي أقل تكلفة وخفيفة للغاية، ما يعزز طرق تتبع الأشياء المرئية ليكون واعدا للغاية ليطبق في الوقت الحقيقي. من خلال هذه الأطروحة، نركز على تطوير نظام موجه لتطبيق تتبع حقيقي يستند إلى منهج التحكم المرئي وطرق تتبع بصرية جديدة. لتحقيق هذا الهدف، نرسم هدفين فرعيين أساسيين يتم توزيعهما في جزأين. يخصص الجزء الأول لتقديم طريقتين لتتبع الكائنات يمكنهما تحديد مسار الكائن بمرور الوقت في سلسلة من الصور، أيا كان شكلها. على الرغم من أنه تم تطوير العديد من طرق تتبع الكائنات على مدار السنوات القليلة الماضية، إلا أن بع الصعوبات مثل الانسداد، الحركة السريعة، تغيير المقياس وتغيير الإضاءة قد تؤدي إلى سقوط هذه الطرق في فشل التتبع. نحن مهتمون بشكل خاص بتحسين الطريقة القائمة على عامل تصفية الارتباط، والتي تعد واحدة من أكثر طرق التتبع فعالية للتطبيقات في الوقت الفعلي بفضل بساطتها. يعتمد جانب هذه الطرق على معرفة نموذج المرشح في مجال التردد باستخدام تحويل فورييه للحصول على دقة عالية مع تعقيد حساب منخف . ومع ذلك، يمكن أن يتسبب تحويل فورييه في تأثيرات غير مرغوب فيها، والتي يمكن أن تتسبب في انخفاض جودة نموذج التتبع. هذا يجعل هذه الطرق غير قادرة على التمييز بين الهدف وخلفيته. في هذا السياق، تتعامل الطريقة الأولى المقترحة مع هذا الحد من خلال تعليم نماذج لمرشحات الارتباط عبر ميزات بالإضافة إلى ذلك، نقترح أن شرط الطاقة .PSO في المجال المكاني باستخدام خوارزمية )CNN( الشبكة العصبية التلافيفية .HSV و RGB قد ساعدت في مهمة التعلم من خلال الجمع بين قواعد الألوان HSV المستندة إلى لاستغلالها )HOG( الطريقة الثانية تعلم النموذج المرشح في مجال التردد باستخدام الرسم البياني لميزات التدرج في الوقت الحقيقي. نتعامل مع عيوب الحدود في مجال التردد من خلال تطبيق نافذة جيب التمام على قنوات الخصائص. علاوة على ذلك، فإننا نعتمد وحدة إعادة اكتشاف لتحسين جودة التتبع بين الحالات الصعبة المحددة. يتم التحقق من صحة في حالة التتبع على المدى VOT 2016 ،OTB- الطريقتين المقترحتين باستخدام ثلاث مجموعات بيانات مرجعية، 50 في حالة التتبع طويل الأجل. UAV20L القصير و الجزء الثاني، مخصص لتصميم وحدة تحكم قائمة على الصور مع مراعاة كل من ديناميكيات الطائرة رباعية الدوار وحركة الهدف أثناء عملية التتبع، للحفاظ عليها بدقة في مجال الرؤية. نعتمد مفهوم التحكم البصري المرتكزة على الصور والذي يتحقق فيه حساب قانون التحكم عن طريق تقليل الخطأ بين الخصائص المرئية المرغوبة والخصائص المرئية الحالية المستخرجة من معلومات الصورة. في الأخير، نوضح من خلال تطبيق افتراضي أن طريقة التتبع المعتمدة على خصائص الرسم البياني المتدرج يمكن أن تعمل بشكل موثوق على الطائرة رباعية المحرك ذات الكاميرا الثابتة لتتبع هدفين بأحجام و مسافات متغيرة، مما يدل على مدى قوة نظامنا في التعامل مع التغطية واختلاف أبعاد الشيء، مما يثبت قابلية تطبيق وفعالية النظام المقترح. |
Sommaire : |
List of Tables xii
List of Figures xiii 1 Introduction 1 1.1 Context . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 1.2 Problematic . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 1.3 Contributions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 1.4 Structure . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 2 State-of-the-art 7 2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 2.2 Visual bject tracking methods . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 2.2.1 Discriminative methods . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 2.2.2 Generative methods . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 2.2.3 Hybrid methods . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 2.2.4 Set of trackers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 2.3 Databases and attributes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 2.3.1 Attributes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 2.3.2 Databases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 2.4 Correlation filters . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 2.4.1 MOSSE tracker . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18 2.5 Image features . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 2.5.1 Convolutional neural networks . . . . . . . . . . . . . . . . . . . . . . . . . . 20 2.5.2 Histogram of oriented gradients . . . . . . . . . . . . . . . . . . . . . . . . . . 25 2.6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28 3 Proposed methods for visual object tracking 29 3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30 3.2 Patch processing . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30 ix TABLE OF CONTENTS 3.2.1 HSV-Energy condition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30 3.2.2 Object patch extraction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32 3.3 Correlation filters . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32 3.3.1 Estimation of the location of the object . . . . . . . . . . . . . . . . . . . . . . 34 3.3.2 Update models . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34 3.3.3 Scale estimation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34 3.4 CNN-based method for Visual object tracking . . . . . . . . . . . . . . . . . . . . . . 35 3.4.1 Hierarchical features . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35 3.4.2 PSO algorithm . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36 3.4.3 Results and discussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38 3.5 HOG-based method for Visual object tracking . . . . . . . . . . . . . . . . . . . . . . 43 3.5.1 Histogram of oriented gradient features . . . . . . . . . . . . . . . . . . . . . 43 3.5.2 Online re-detector . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45 3.5.3 Results and discussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45 3.6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48 4 State-of-the-art 51 4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52 4.2 Unmanned aerial vehicles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52 4.2.1 History . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52 4.2.2 Visual servoing of drones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56 4.3 Visual servoing . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57 4.3.1 VS classes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57 4.3.2 VS approaches . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57 4.3.3 Basic notions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60 4.3.4 IBVS control law . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60 4.3.5 Fundamentals of vision . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62 4.3.6 Stability analysis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66 4.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70 5 Image-based control law design for quadrotor control 71 5.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72 5.2 Modeling and dynamics of the quadrotor . . . . . . . . . . . . . . . . . . . . . . . . . 72 5.2.1 Operation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72 5.2.2 Mathematical model of quadrotor . . . . . . . . . . . . . . . . . . . . . . . . . 73 5.3 Control law design . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81 5.3.1 The PID controller . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82 5.3.2 Procedure . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84 5.4 Visual servoing based on the image . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89 x TABLE OF CONTENTS 5.4.1 IBVS control law design . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90 5.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99 6 Validation of the HOG-based object tracking method 100 6.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101 6.2 Hardware environment . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101 6.2.1 Parrot AR Drone 2.0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101 6.2.2 Robot Operating System (ROS) . . . . . . . . . . . . . . . . . . . . . . . . . . 101 6.3 ROS-based simulations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105 6.3.1 System architecture . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105 6.3.2 Tracking strategy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106 6.3.3 Simulation results . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109 6.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115 7 Conclusion 116 7.1 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117 7.2 Future works . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118 Bibliography |
Disponibilité (1)
Cote | Support | Localisation | Statut | Emplacement | |
---|---|---|---|---|---|
TH/1034 | Thèse de doctorat | BIB.FAC.ST. | Empruntable |
Erreur sur le template