أخبار

تحيز تسلا للقيادة الذاتية: يحظى المسك والمؤثرون بالأولوية في تطوير الذكاء الاصطناعي للقيادة الذاتية



ستيف جرانيتز / فيلم ماجيك؛ iStock; ريبيكا زيسر / بي
  • تولي شركة تسلا معاملة خاصة للبيانات الواردة من كبار الشخصيات، بما في ذلك إيلون موسك، عند تدريب الذكاء الاصطناعي الخاص بها على القيادة الذاتية.
  • ويقول الموظفون الحاليون والسابقون إنه طُلب منهم العمل على الطرق التي كان ” ماسك ” يقودها بالإضافة إلى الأشخاص المؤثرين.
  • ويقول الخبراء إن هذا يعني أن موارد تسلا تجاه المركبات ذاتية القيادة يتم توزيعها بشكل غير متساو.

تبدو سيارات تسلا ذاتية القيادة بمثابة أعجوبة للتعلم الآلي.

ولكن في الواقع، تعتمد الشركة على جيش صغير من “مشروحي البيانات” البشريين الذين يعملون باستمرار على تحسين كيفية قيادة السيارات من خلال مراجعة لقطات الكاميرا من الآلاف من سائقي تسلا وتعليم السيارة كيفية التصرف مثل سائق بشري، مثل تحديد الوقت المناسب لذلك. لاستخدام الوامض أو تحديد مخروط البناء.

وقد علم موقع Business Insider أن هؤلاء المفسرين يركزون جهودهم على فئتين بارزتين من السائقين: الرئيس التنفيذي لشركة Tesla Elon Musk ومجموعة مختارة من السائقين “VIP”.

تحدث BI مع أكثر من عشرة موظفين حاليين وسابقين في Tesla، جميعهم باستثناء واحد تحدثوا بشرط عدم الكشف عن هويتهم، والذين قالوا إن الصور ومقاطع الفيديو من Musk’s Teslas خضعت لتدقيق دقيق، في حين تلقت البيانات الواردة من السائقين البارزين مثل مستخدمي YouTube معاملة “VIP” في تحديد ومعالجة المشكلات المتعلقة ببرنامج القيادة الذاتية الكاملة. والنتيجة هي أن برنامج Tesla Autopilot وFSD قد يتنقل بشكل أفضل في الطرق التي يسلكها Musk وغيره من السائقين البارزين، مما يجعل رحلاتهم أكثر سلاسة ومباشرة.

وهذا يعني، كما يقول الخبراء، أن موارد تيسلا يتم توزيعها بشكل غير متساو ويمكن أن تكون بمثابة إلهاء نحو المهمة الأكبر للشركة المتمثلة في القيادة الذاتية الحقيقية.

تم تجهيز كل سيارة تيسلا بتسع كاميرات، ويمكن للمالكين اختيار مشاركة الفيديو من تلك الكاميرات لتحسين أنظمة تيسلا.

يقوم عدد كبير من معلقي البيانات في Tesla بمراجعة المقاطع التي تمت مشاركتها مع Tesla واستخدام الصور لتدريب النظام على تنفيذ انعطاف يسار مناسب أو تحديد علامة التوقف (والتوقف عندها). يقوم العمال أيضًا بمراجعة المواقف التي فشل فيها النظام في الاستجابة بشكل صحيح واضطر السائق إلى استعادة السيطرة على السيارة.

يقوم المعلقون بتسمية مقاطع الفيديو التي يعمل فيها النظام بشكل صحيح والحالات التي يحدث فيها خلل. من خلال مشكلات تحديد الهوية، يمكن لفريق شرح البيانات تحديث قاعدة بيانات Tesla العالمية بمعلومات جديدة لإزالة أي ارتباك قد يصيب سيارات Tesla الأخرى التي تواجه نفس المواقف. ببساطة، يعلمون الذكاء الاصطناعي الخاص بشركة تسلا أن علامة التوقف عند First and Main هي جزء من محطة توقف رباعية.

وقال العديد من العاملين إن تحليل البيانات من مركبات ماسك كان أولوية منذ بداية البرنامج.

وقال ثمانية عمال إنهم تذكروا البيانات التي يعتقدون أنها مرتبطة بالملياردير. قال عاملان إنهما حددا طريقًا في عام 2021 كان يدخل ويخرج من ممر قصر في هيلزبورو، كاليفورنيا، واكتشفا لاحقًا أنه يخص ” ماسك “. باع الرئيس التنفيذي لشركة Tesla المنزل في نوفمبر 2021 مقابل 32 مليون دولار.

قال العديد من العمال إنهم أمضوا وقتًا طويلاً في وضع علامات على الطرق داخل وخارج مصانع Tesla في أوستن وفريمونت، كاليفورنيا، بالإضافة إلى مكتب SpaceX في هوثورن، كاليفورنيا.

“شعرت بعدم الأمانة”

في حين أنه كان من الممكن أن يكون المعلقون يشاهدون بيانات من موظفي Tesla الآخرين أو عمال SpaceX الذين يمتلكون Teslas، إلا أنهم قالوا إن نفس التركيز لم يتم منحه إلى مواقف السيارات في المصانع أو المكاتب الأخرى في كاليفورنيا أو في أي مكان آخر. بالإضافة إلى ذلك، أشار أحدهم إلى تصنيف سلسلة من المقاطع من أواخر عام 2022 وأوائل عام 2023 والتي تضمنت مقر تويتر الرئيسي في سان فرانسيسكو. وقال العامل إنه طُلب من الفريق التركيز على البيانات من المناطق القريبة من مقر تويتر خلال نفس الفترة الزمنية التي سيطر فيها ماسك على شركة التواصل الاجتماعي.

أخبر جون برنال، محلل Autopilot السابق وسائق الاختبار، وثلاثة عمال سابقين آخرين BI أنهم أُبلغوا أنهم يعملون على بيانات من سيارة Musk وطُلب منهم على وجه التحديد التعامل مع المقاطع بعناية. بينما يتم تقييم العاملين في مصانع وضع العلامات عادةً على مدى السرعة التي يمكنهم بها إضافة تعليقات توضيحية إلى البيانات، قال برنال وعاملان آخران إنه طُلب منهم قضاء المزيد من الوقت في التعامل مع البيانات الواردة من مركبات ” ماسك “، مضيفين أن المقاطع ستخضع لجولة إضافية من التدقيق. ضمان الجودة كذلك.

قال أحد الموظفين السابقين: “يبدو من الواضح تمامًا أن تجربة “إيلون” ستكون أفضل من تجربة أي شخص آخر”. “لقد كان يرى البرنامج في أفضل حالاته.”

وقال عامل آخر إن لديهم بعض المخاوف بشأن المبادرة.

وقال موظف سابق آخر: “يبدو أننا كنا نجعل سيارته أفضل عمدا لجعل الطيار الآلي يبدو مختلفا عما كان عليه”. “لقد شعرت بعدم الأمانة.”

قال أربعة عمال آخرين إنهم يعتقدون أنهم قد حددوا الطرق المرتبطة بـ ” ماسك ” ولكن لم يتم إخبارهم صراحةً من قبل المشرفين. عندما يعرض المعلقون البيانات، يمكنهم رؤية الطابع الزمني من وقت التقاط اللقطات والموقع الجغرافي، لكنهم غير قادرين على عرض أي شيء يحدد بوضوح السيارة أو السائق المحدد. وبدلاً من ذلك، قال المفسرون إن بإمكانهم الاعتماد على أدلة السياق، وخاصة الطرق والمواقع التي زارتها السيارة.

وقال بعض العمال إن تكلفة الفشل في تصنيف بيانات ” ماسك ” بشكل صحيح قد تكون مرتفعة. تذكر اثنان من العاملين السابقين حادثة تم فيها إنهاء عمل مُعلق البيانات بعد وقت قصير من وضع علامة على مقطع اعتقدوا أنه من سيارة ” ماسك “. وقال العمال إنه تم اصطحاب العامل إلى خارج منشأة تيسلا في بوفالو، نيويورك، بعد أن فشل ملصق البيانات في وضع علامة بشكل صحيح على علامة خروج الطريق السريع. قال أحد العمال السابقين إنه من غير المعتاد إلى حد كبير أن يتم فصل شخص ما في شرح البيانات دون سابق إنذار، وأنه يتم عادةً إخطار الموظفين إذا لم يحققوا مقاييسهم.

أخبر أحد العمال السابقين BI أنهم يتذكرون تحديد مسار في عام 2020 من منزل في لوس أنجلوس إلى مقر SpaceX في هوثورن، حيث كافح البرنامج لتحديد الخطوط على الطريق باتجاه منحدر خارج. واجه برنامج Tesla Autopilot صعوبات في متابعة علامات المسار غير المكتملة في الماضي. في السيرة الذاتية التي كتبها والتر إيزاكسون عن ماسك، قال المؤلف إنه في وقت سابق من برنامج الطيار الآلي، أقنع تسلا أحد “معجبي ماسك” في وزارة النقل بكاليفورنيا بإعادة رسم الخطوط على الطريق السريع 405 بعد أن واجه ماسك مشكلات مع الطيار الآلي نتيجة لتلاشي الخطوط. علامات الممرات.

ومع ذلك، قال أحد العمال السابقين إنه لا توجد طريقة يمكن لأي من شركات الملصقات أن يعرف على وجه اليقين ما إذا كان المقطع يخص سائقًا واحدًا، مضيفًا أن أي شخص يعتقد أنه يعرف مالك السيارة سيعمل بناءً على “محض تكهنات”.

ولم يرد ممثلو تيسلا وماسك عند الاتصال بهم للتعليق.

يحظى المؤثرون في Tesla أيضًا باهتمام إضافي

المسك ليس السائق الوحيد الذي يحصل على معاملة خاصة.

منذ إصدار FSD في عام 2020، انتقل معجبو تسلا ونقادها على حدٍ سواء إلى وسائل التواصل الاجتماعي لمشاركة مقاطع فيديو حول نجاح التكنولوجيا وفشلها، بدءًا من مقاطع لها وهي تتنقل في طرق صعبة دون تدخل بشري إلى مقاطع فيديو بها عربات التي تجرها الدواب تظهر السيارة وهي تدهس دمى صغيرة الحجم أو الخلط بين القمر وضوء التوقف.

لا تمر مقاطع الفيديو هذه دون أن يلاحظها أحد من قبل موظفي Tesla. في الواقع، أنشأت الشركة نظامًا لتحديد أولويات البيانات الواردة من السائقين الذين من المرجح أن يشاركوا خبراتهم عبر الإنترنت، حسبما صرح ثلاثة موظفين حاليين وسابقين لديهم معرفة مباشرة بالمشكلة لـ BI. ويُشار إلى برامج التشغيل هذه داخليًا باسم مستخدمي “VIP” ويتم وضع بياناتهم في بعض الأحيان في طوابير VIP، وفقًا للعاملين.

قال ثلاثة موظفين حاليين وسابقين إن البيانات التي تم جمعها من مستخدمي VIP، بما في ذلك سائقي Tesla البارزين الذين ينشرون على YouTube، تخضع للتدقيق بشكل أكبر ومن المرجح أن يتم تصنيفها. قالوا إن قادة فرقهم أخبروهم على وجه التحديد أنهم يعملون على “بيانات VIP” وأنهم تلقوا أجرًا إضافيًا للعمل على البيانات قبل تحديثات FSD.

وأضاف أحد العمال السابقين، الذي قال إن مديرهم أخبرهم أنهم يعملون على بيانات “المؤثرين في شركة Tesla”: “سنقوم بتعليق كل منطقة كانت السيارة تسير فيها بانتظام”. “كنا نعود إلى المكان الذي يعيشون فيه ونضع علامة على كل ما في وسعنا على طول هذا الطريق.”

قال برنال إن شركة Tesla أرسلت العديد من سائقي الاختبار إلى الطرق التي قادها مستخدمو YouTube، بما في ذلك الطرق التي يقودها راج بالواني وتشاك كوك، وهما من مستخدمي YouTube الذين غالبًا ما يقومون بمراجعة البرنامج.

قال برنال إنه كان واحدًا من ثمانية أو تسعة سائقين اختباريين ذهبوا إلى شارع لومبارد للعمل على حل، بعد أن نشر بالواني، المعروف أيضًا من خلال حسابه على YouTube Tesla Raj، مقطع فيديو لـ FSD وهو يحاول مرارًا وتكرارًا الانحراف عن الطريق المتعرج الشهير. وفي نهاية المطاف، قامت الشركة بترميز حواجز غير مرئية في النظام لإصلاح المشكلة خصيصًا لشارع لومبارد، وفقًا لبرنال. (تم إنهاء عمل برنال في عام 2022. وقال إن ذلك كان نتيجة مشاركة سلسلة من مقاطع الفيديو على قناته على YouTube حول خلل في سيارة Tesla الشخصية أثناء استخدام FSD.)

أخبر بالواني BI أنه لم يتم الاتصال به مطلقًا من قبل أي من موظفي Tesla بخصوص مقاطع الفيديو الخاصة به، لكنه رأى تركيز الشركة على التعليقات عبر الإنترنت كعلامة إيجابية.

وقال البلواني: “أعتقد أن هذا يعني أن فرقهم تقوم بالمراقبة وتشارك في المناطق التي يجب أن تكون فيها”.

وأضاف: “بالنسبة لمعظم ما قمت بتسجيله وفعلته منذ إصابتي بـ FSD، تم حل كل شيء تقريبًا، وهو أمر لا يصدق”.

في عام 2022، هنأ ماسك كوك على تويتر لمنح تسلا “حالة صعبة لحلها” بعد أن طرحت شركة صناعة السيارات تحديثًا يهدف إلى معالجة مشكلة الانعطافات اليسرى غير المحمية التي أشار إليها كوك في مقاطع الفيديو الخاصة به.

أخبر كوك BI أنه يدرك تمامًا تركيز Tesla على المحتوى الخاص به – في الواقع، قال إنه يرى سائقي الاختبار في الحي الذي يسكن فيه على أساس أسبوعي. قال مستخدم YouTube إنه حاول التواصل مع مهندسي Autopilot عبر البريد الإلكتروني ووسائل التواصل الاجتماعي لكنهم لم يستجيبوا مطلقًا وكان سائقو الاختبار في الحي الذي يسكن فيه “متشددين” للغاية بشأن عملهم.

قال كوك إنه أرسل بريدًا إلكترونيًا في عام 2020 إلى حساب مختبري الإصدار التجريبي من FSD يسأل عما إذا كانت تسلا تبحث حقًا في بياناته.

وقال: “لقد أرسلوا لقطة شاشة لما كانت الكاميرا تراه في سيارتي قبل 30 دقيقة فقط”.

وقال إن كوك يشعر أن شركة تيسلا تركز بشكل أقل على انتقاء المؤثرين وأكثر على جمع أفضل البيانات للتدريب.

قال كوك: “إنهم يعلمون أنني لا أثرثر أو أبالغ في الانتقاد فحسب”. “انا عادل.”

قال أحد العاملين المطلعين على المشكلة إن نظام VIP لم يكن مصممًا لمنح معاملة تفضيلية ولكنه كان بمثابة طريقة إضافية لشركة Tesla لتحسين FSD لجميع السائقين.

وقال العامل إن مستخدمي اليوتيوب “يخرجون ويحاولون باستمرار كسر النظام”، مضيفًا: “إنهم يحددون الصعوبات التي يمكن ترجمتها إلى طرق أخرى ويلفتون الانتباه إليها”.

وأضافوا: “بطريقة ما، إنهم الطبقة الثانية من سائقي الاختبار”.

وقالت ميسي كامينغز، مستشارة السلامة السابقة للإدارة الوطنية لسلامة المرور على الطرق السريعة، إن تركيز تيسلا على مستخدمي Musk و VIP قد يكون ضارًا بجهود الشركة لتحقيق قيادة ذاتية حقًا.

وقال كامينغز لـ BI: “سيكون من الصعب صنع سيارة ذاتية القيادة للجماهير إذا كانت تعمل بشكل جيد فقط حول منزل إيلون”.

وقال فيليب كوبمان، خبير هندسة الكمبيوتر من جامعة كارنيجي ميلون، لـ BI، إن المشكلة تكمن في ما إذا كان تركيز Tesla على المستخدمين VIP يساهم في التحسينات المتخصصة مثل الإصلاحات في شارع Lombard Street أو تلك التي ستفيد المجتمع بأكمله.

وقال كوبمان: “أتوقع أن يكون هناك ضغط تسويقي لجعل السائقين المهمين يبدون بمظهر جيد في مقاطع الفيديو الخاصة بهم، ومن الصعب معرفة مدى أهمية ذلك في المسرح ومدى الواقعية دون الكشف عن مقدار تحسينات السلامة التي يوفرها كل تغيير”. .

القيادة الذاتية لشركة تسلا في دائرة الضوء التنظيمية

وتخضع شركة تسلا لتدقيق متزايد من الجهات التنظيمية بشأن برنامج القيادة الذاتية وتسويق الشركة للخدمة. في أبريل/نيسان، ربط التحقيق الذي أجرته الإدارة الوطنية لسلامة المرور على الطرق السريعة في نظام تسلا الآلي والقيادة الذاتية الكاملة، بينه وبين مئات الحوادث وعشرات الوفيات، مشيرًا إلى عدم كفاية الإجراءات لضمان انتباه السائق.

بالإضافة إلى ذلك، تحقق وزارة العدل الأمريكية فيما إذا كانت شركة تسلا قد ارتكبت أوراقًا مالية أو احتيالًا عبر الإنترنت بسبب مزاعم بأنها ضللت المستثمرين والمستهلكين بشأن قدرات القيادة الذاتية لسياراتها الكهربائية.

وفي الوقت نفسه، قال ماسك مرارًا وتكرارًا إن شركة تيسلا تقترب من هدفها للقيادة الذاتية، بما في ذلك خطط للكشف عن خدمة Robotaxi في وقت لاحق من هذا العام.

يرى ماسك أن الطيار الآلي وFSD مهمان وجوديًا لشركة Tesla. وقال في مقابلة عام 2022، إن القيادة الذاتية هي “الفرق حقًا بين أن تسلا تستحق الكثير من المال أو تساوي الصفر في الأساس”.

هل تعمل لدى شركة تسلا أو لديك نصيحة؟ تواصل مع المراسل عبر بريد إلكتروني وجهاز غير خاصين بالعمل على gkay@businessinsider.com أو 248-894-6012.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى