شركة OpenAI تمنع ChatGPT من تقديم النصائح الطبية والقانونية للمستخدمين

قامت شركة OpenAI بتحديث سياسة استخدام منتجاتها المعتمدة على الذكاء الاصطناعي، وفي مقدمتها ChatGPT، لتشمل إجراءات جديدة تمنع النظام من تقديم استشارات طبية أو قانونية فردية للمستخدمين، في خطوة تهدف إلى تعزيز سلامة وأمن المستخدمين.

ووفقا للقواعد المحدثة، لن يُسمح لـChatGPT بتقديم تقييمات قانونية محددة أو صياغة استراتيجيات دفاع أو إعداد وثائق قضائية، كما سيُمنع من تشخيص الأمراض أو وصف الأدوية أو تحديد الجرعات.

وتشمل القيود أيضا تفسير الصور الطبية مثل الأشعة السينية والتصوير بالرنين المغناطيسي والتصوير المقطعي وصور الإصابات الجلدية.

وسيكتفي النظام، في مثل هذه الحالات، بتقديم معلومات مرجعية عامة، مع التوصية بالتواصل مع متخصصين مرخّصين في المجالين الطبي والقانوني.

وأكدت الشركة أن هذه الخطوة تُطبق على جميع منتجاتها، بما في ذلك واجهة الدردشة وواجهة البرمجة التطبيقية (API).

وفي جانب آخر، أعلنت OpenAI أنها ستبدأ من ديسمبر المقبل في تخفيف سياسة المحتوى الموجهة للبالغين داخل ChatGPT، حيث سيتمكن المستخدمون الذين أثبتوا سنّهم القانوني من الوصول إلى نسخة أقل تقييدًا تتضمن مواد إيروتيكية خاضعة للرقابة.

كما أضافت الشركة، في سبتمبر الماضي، ميزة الرقابة الأبوية التي تسمح للوالدين بربط حساباتهم بحسابات أبنائهم المراهقين وتعديل القيود العمرية، في إطار سعيها إلى تحقيق توازن بين الأمان والحرية الرقمية.

وتأتي هذه التحديثات في وقت تشهد فيه صناعة الذكاء الاصطناعي تسارعا كبيرا في التطور، وسط مخاوف متزايدة من إساءة استخدام التقنيات الذكية في مجالات حساسة كالصحة والقانون والإعلام.

ويرى مراقبون أن خطوة OpenAI تعكس اتجاها عالميا نحو تنظيم أكثر صرامة لاستخدام الذكاء الاصطناعي، خصوصا بعد الجدل الذي أثارته قدرات النماذج اللغوية المتقدمة في تقديم نصائح مؤثرة على سلوك الأفراد وقراراتهم اليومية.

Total
0
Shares
اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

Related Posts