
هومبريس – ي فيلال
أوضح إيلون ماسك أن نماذج الذكاء الإصطناعي مثل GPT-4، التي يعتمد عليها روبوت الدردشة ChatGPT، تحتاج إلى كميات ضخمة من البيانات من الإنترنت لإستخلاص الأنماط و تقديم إجابات دقيقة للبشر.
يعتمد هذا النوع من الذكاء الإصطناعي على معالجة كمية كبيرة من البيانات لتحقيق دقة أفضل.
البيانات الإصطناعية كحل مؤقت
نوه ماسك إلى أن المطورين قد يلجؤون لإستخدام البيانات الإصطناعية، و هي البيانات التي تنتجها نماذج اللغة الكبيرة نفسها، نتيجة للتطورات التكنولوجية السريعة.
رغم ذلك، فإن هذا الحل يحمل في طياته تحديات و مخاطر، مثل إحتمالية إنهيار الشبكات العصبية.
مخاطر الهلوسة في الشبكات العصبية
حذر ماسك من أن الإعتماد المفرط على البيانات الإصطناعية قد يؤدي إلى ظاهرة “الهلوسة”، حيث يمكن أن تنتج الشبكات العصبية معلومات تبدو صحيحة و لكنها في الواقع غير دقيقة أو غير منطقية.
هذا التوجه قد يجعل النماذج أقل فعالية و فائدة.
تأثير البيانات الإصطناعية على الجودة
عندما تعتمد نماذج الذكاء الإصطناعي على البيانات الإصطناعية بشكل مفرط، قد تتدهور جودة النتائج بمرور الوقت.
يمكن أن يؤدي ذلك إلى تكرار الأخطاء و تضخيم التحيزات الموجودة في البيانات الأصلية، مما يؤثر سلباً على دقة المعلومات المقدمة.
ضرورة البيانات عالية الجودة
أكد ماسك على أهمية إستخدام بيانات متنوعة وعالية الجودة لتقليل الاعتماد على البيانات الإصطناعية.
يتطلب هذا التعاون بين المطورين و الخبراء في مختلف المجالات لضمان دقة المعلومات.
دور أنظمة التحقق و التدقيق البشري
اقترح ماسك تطوير أنظمة تحقق تلقائية لتقييم دقة الإجابات التي يقدمها الذكاء الإصطناعي، مثل إستخدام مصادر موثوقة للتحقق من الحقائق أو مقارنة النتائج مع بيانات أخرى.
في المجالات الحساسة، يمكن للبشر أن يلعبوا دوراً رئيسياً في مراجعة و تدقيق النتائج، مما يقلل من الأخطاء و.يحد من ظاهرة الهلوسة.
تعزيز الشفافية و المراقبة
أضاف ماسك أن تعزيز الشفافية في عمليات تطوير و تدريب نماذج الذكاء الإصطناعي يمكن أن يسهم في تحسين دقتها و جودتها.
يجب أن تكون هناك مراقبة مستمرة للبيانات والنتائج لضمان تقديم معلومات موثوقة و دقيقة، مع تقليل الإعتماد على البيانات الإصطناعية التي قد تؤثر سلباً على أداء النماذج.