روبوتات تتعلم لغة الجسد

//روبوتات تتعلم لغة الجسد

روبوتات تتعلم لغة الجسد

Robots Learn to Speak Body Language

This body-tracking software could help robots read your emotions

If your friend says she feels relaxed, but you see that her fists are clenched, you may doubt her sincerity. Robots, on the other hand, might take her word for it. Body language says a lot, but even with advances in computer vision and facial recognition technology, robots struggle to notice subtle body movement and can miss important social cues as a result.

Researchers at Carnegie Mellon University developed a body-tracking system that might help solve this problem. Called OpenPose, the system can track body movement, including hands and face, in real time. It uses computer vision and machine learning to process video frames, and can even keep track of multiple people simultaneously. This capability could ease human-robot interactions and pave the way for more interactive virtual and augmented reality as well as intuitive user interfaces.

One notable feature of the OpenPose system is that it can track not only a person’s head, torso, and limbs but also individual fingers. To do that, the researchers used CMU’s Panoptic Studio, a dome lined with 500 cameras, where they captured body poses at a variety of angles and then used those images to build a data set.

They then passed those images through what is called a keypoint detector to identify and label specific body parts. The software also learns to associate the body parts with individuals, so it knows, for example, that a particular person’s hand will always be close to his or her elbow. This makes it possible to track multiple people at once.

The images from the dome were captured in 2D. But the researchers took the detected keypoints and triangulated them in 3D to help their body-tracking algorithms to understand how each pose appears from different perspectives. With all of this data processed, the system can determine how the whole hand looks when it’s in a particular position, even if some fingers are obscured.

Now that the system has this data set to draw from, it can run with only one camera and a laptop. It no longer requires the camera-lined dome to determine body poses, making the technology mobile and accessible. The researchers have already released their code to the public to encourage experimentation.

They say this technology could be applied to all sorts of interactions between humans and machines. It could play a huge role in VR experiences, allowing finer detection of the user’s physical movement without any additional hardware, like stick-on sensors or gloves.

It could also facilitate more natural interactions with a home robot. You could tell your robot to “pick that up,” and it could immediately understand what you’re pointing at. By perceiving and interpreting your physical gestures, the robot may even learn to read emotions by tracking body language. So when you’re silently crying with your face in your hands because a robot has taken your job, it might offer you a tissue.

 

 

إذا قالَ لكَ صديقُك أنهُ يشعرُ بالرّاحة ، ولكنّك ترى أنقبضة يدهِ مشدودة ، قد تشكك في صدقه. لكنَّ الروبوتات على عكس ذلك ،من الممكن أنها سوف تصدقهُ. لغة الجسد تعبّرعن الكثير، وحتَّى مع تقدُّم رصد أجهزة الحاسوب وقدراتها بالتعرف على تعابير الوجوه ، الروبوتات تعاني في ملاحظتها لحركات الجسد الدقيقة ، وقد تفوتهم بعض الاشارات الاجتماعية المهمة كنتيجةٍ لذلك.

باحثين من جامعة Carnegie Mellonطوروا مؤخراً نظام لتتبع الأجساد ، وقد يكون هذا النظام حلاً لمشكلة الروبوتاتفي فهم لغة الجسد و قد أسموه((OpenPose.و لدى هذا النظام القدرة على تتبع حركات الجسد ، بالتركيز على الوجه واليدين. و يعمل هذا النظام بقدرة بصرية حاسوبية لدى الروبوت و بمبدأ تعلّم الآلة لمعالجة أجزاء المقاطع (video frame)، و يستطيع هذا النظامأن يتتبّع أكثر من شخص في الوقت ذاته. هذه القدرة قد تسهل التواصل البشري-الآلي, وتفتح المجال للمزيد من الواقع الافتراضي التفاعُلي.

إحدى خواص ال OpenPose أنه يستطيع تتبع الرأس والجذع  والأطراف ، بالإضافة إلى تتبع الأصابع. و لتمكين هذا النّظاممن هذه الخواص استخدم الباحثوناستديوهاتPanoptic الخاصة بجامعة Carnegie Mellon ، و هي عبارة عن قبّة مبطّنة ب500 كاميرا حيثُ قاموا بالتقاط وضعيات كثيرة للجسد من عدة زوايا و استخدموا تلك الصور لبناء قاعدة بيانات.

بعد ذلك قاموا بتمرير تلك الصور بما يُسمّى بمتتبع النقاط الرئيسة في الجسد لكشف و تمييز أجزاء معينة من الجسد. هذه البرمجيةأيضاً تتعلّم وصل أجزاء الجسد ، كمثال على ذلك يد شخصتكون دائما قريبة من مرفقه مما يجعل النظام يصل بينهما ، وهذا ما يمكّن هذا النظام من تتبع أكثر من شخص في الوقت ذاته.

الصورالمأخوذة داخل القبة هي صور ثنائية الأبعاد. ولكنّ الباحثين حولوا النقاط الأساسية التي التقطتها الكاميرات إلى نقاط ثلاثية الأبعاد لتمكين خوارزمية الآلة من تعلُّم تتبع الجسد وفهم أن كل وضعيّة معينة يختلف مقصدها. مع كل هذه المعلومات المُعالجة سيستطيع النظّام تحديد شكل اليد في وضعية معينة حتّى لو كانت بعض الأصابع صورها مشوشة.

والآن مع وجود قاعدة بيانات داخل النظام ، يستطيع النظام العمل بوجود كاميرا واحدة وجهاز حاسوب فقط. و لا حاجة لوجود القبة المبطنة بالكاميرات لتحديد وضعيات الجسد ، مما يجعلها تكنولوجيا يسهل الوصول إليها و تنقّلها ، الباحثون في النظّام قاموا باطلاقهِ  للعامّة للتشجيع على تجريبه و البحث فيه.

يقول الباحثون أن تلك البرمجية يمكن أن تطبق على جميع أنواع التواصل البشري-الآلي. وقد تلعب دوراً هاماً في تجارب الواقع الافتراضي ، و في استشعار أكثر جودة للحركات الفيزيائية دون استخدام قطع إضافية كالقفازات او اللواصق الحساسة.

هذا قد يسهلتفاعلات أكثر واقعية لروبوتات المنازل ، وسيمكنك أن تقول للروبوت الخاص بك “التقط” ذاك ، وسيستطيع فوراً تحديد ما قد أشرت إليهعن طريق فهم وتحليل وضعك الفيزيائي ، و من الممكن أن يستطيع تحديد و قراءة عواطفك بتتبع حركات  و لغة جسدك ، لذا عندما يأتي اليوم الذيستبكي فيه بصمت ويديك على وجهك لأن روبوتاً يقوم بما عليك أنت القيام به في الحياة  سيعرض عليك هذا الروبوت منديلاً ورقياً.

By | 2018-03-04T20:50:19+00:00 مارس 4th, 2018|videos|0 Comments

About the Author:

Leave A Comment