تحديث أمني ChatGPT محظور من تقديم النصائح الطبية للمستخدمين . أعلنت شركة OpenAI مؤخرًا عن تحديث جذري في سياسة استخدام منتجاتها القائمة على الذكاء الاصطناعي، بما في ذلك ChatGPT والنماذج الأخرى، يقضي بمنعها من تقديم استشارات فردية في المجالين الطبي والقانوني للمستخدمين.
ويأتي هذا القرار ضمن جهود الشركة لتعزيز سلامة المستخدمين وحمايتهم من الاعتماد على نصائح قد تكون غير دقيقة أو خطيرة في المجالات الحساسة.
تطبيق هذه القيود الجديدة يمتد على جميع منتجات OpenAI، بما في ذلك واجهة الدردشة المباشرة (ChatGPT) وواجهة البرمجة التطبيقية (API)، بحيث يصبح الذكاء الاصطناعي موجهًا لتقديم معلومات مرجعية عامة فقط، مع تشجيع المستخدمين على التواصل مع متخصصين مرخصين عند الحاجة لأي استشارة قانونية أو طبية دقيقة.
القيود الجديدة على الاستشارات القانونية والطبية
تُفصّل OpenAI القيود الجديدة على النحو التالي:
في المجال القانوني:
حظر تقديم نصائح قانونية فردية للمستخدمين.
منع الذكاء الاصطناعي من تقييم المخاطر القانونية لسيناريوهات محددة.
عدم المساعدة في صياغة استراتيجيات دفاعية في المحكمة.
حظر إنشاء وثائق إجرائية أو مستندات قانونية ملزمة.
في المجال الطبي:
منع تشخيص الأمراض أو الحالات الصحية.
عدم وصف الأدوية أو تحديد الجرعات المناسبة.
حظر تفسير الصور الطبية المعقدة مثل الأشعة السينية، الرنين المغناطيسي، التصوير المقطعي المحوسب، وصور الإصابات الجلدية.
وعند طلب المستخدم معلومات قانونية أو طبية محددة، سيقتصر رد ChatGPT على تقديم معلومات عامة ومرجعية، مع التوصية الشديدة بالتواصل مع محامي أو طبيب مرخص لضمان الدقة والسلامة.
تعزيز حماية المستخدمين
تأتي هذه القيود ضمن سلسلة خطوات اتخذتها OpenAI لتعزيز حماية المستخدمين، خاصة في المجالات التي تتطلب خبرة متخصصة ودقة عالية. ويرى خبراء الذكاء الاصطناعي أن هذه الخطوة مهمة، نظرًا لإمكانية الاعتماد الخاطئ على النماذج الذكية في قضايا حساسة مثل القانون والصحة، والتي قد تؤدي إلى مخاطر كبيرة أو أضرار جسيمة عند التعامل معها بشكل غير صحيح.
تليين سياسة محتوى البالغين
إلى جانب القيود الجديدة على الاستشارات القانونية والطبية، أعلنت OpenAI عن تحديثات أخرى تتعلق بالمحتوى والتحكم في الاستخدام، أهمها:
تخفيف رقابة محتوى البالغين:
أعلنت الشركة أنها تخطط لتخفيف سياسة الرقابة على محتوى البالغين في دردشة ChatGPT بدءًا من شهر ديسمبر القادم.
سيتمكن المستخدمون الذين يجتازون عملية التحقق من العمر من الوصول إلى نسخة أقل رقابة من الدردشة.
تشمل التحديثات الوصول إلى المواد الإيروتيكية بشكل آمن، مع الحفاظ على شروط الاستخدام لمنع الإساءة أو الاستغلال.
ميزة الرقابة الأبوية:
سبق أن أضافت OpenAI في نهاية سبتمبر ميزة الرقابة الأبوية، التي تسمح للوالدين بربط حساباتهم بحساب أبنائهم المراهقين، وتعديل القيود العمرية المفروضة عليهم.
تمكن هذه الميزة الآباء من تحديد نوعية المحتوى الذي يمكن لأبنائهم الوصول إليه داخل ChatGPT.
الهدف الرئيسي هو حماية المراهقين من محتوى غير مناسب، مع السماح بالاستفادة من مزايا الذكاء الاصطناعي بشكل آمن.
تصريحات الشركة
صرح رئيس OpenAI، سام ألتمان، بأن الهدف من هذه الإجراءات هو:
ضمان سلامة المستخدمين وتقليل الاعتماد على استشارات قد تكون مضللة أو خطيرة.
تسهيل الوصول إلى محتوى البالغين بشكل آمن بعد التحقق من العمر، مع الحفاظ على معايير الأمان والرقابة.
التأكيد على أن ChatGPT وأدوات الذكاء الاصطناعي الأخرى تظل منصات تعليمية واستعلامية، وليست بديلًا عن المتخصصين المعتمدين في المجالات القانونية والطبية.
أهمية هذه الإجراءات
تأتي هذه الخطوات في وقت يتزايد فيه الاعتماد على الذكاء الاصطناعي في حياتنا اليومية، سواء للتعليم، العمل، الاستشارات، أو حتى الترفيه. ومن خلال وضع حدود واضحة لاستخدام الذكاء الاصطناعي في المجالات الحساسة، تهدف OpenAI إلى:
منع الاعتماد المفرط على المساعدات الذكية في الحالات الحرجة.
حماية المستخدمين من معلومات خاطئة أو مضللة يمكن أن تؤثر على صحتهم أو حقوقهم القانونية.
تعزيز الثقة في الذكاء الاصطناعي كأداة مساعدة وليس بديلاً عن الخبراء.
مستقبل ChatGPT وسياسات المحتوى
يتوقع المحللون أن تستمر OpenAI في تحديث سياساتها باستمرار لمواكبة التطورات التكنولوجية والمخاطر المحتملة. ومن المتوقع أن تشمل هذه التحديثات:
زيادة دقة المعلومات العامة التي يمكن للذكاء الاصطناعي تقديمها في المجالات غير الحساسة.
تحسين أدوات الرقابة الأبوية لتوفير بيئة أكثر أمانًا للمراهقين والمستخدمين الشباب.
تطوير نظام تحقق العمر لتوسيع نطاق الوصول إلى المحتوى الخاص بالبالغين بشكل آمن ومسؤول.
في النهاية، يمثل تحديث سياسة OpenAI الجديدة خطوة هامة نحو الاستخدام المسؤول للذكاء الاصطناعي، مع تحقيق توازن بين:
حماية المستخدمين من المعلومات الخاطئة أو غير الدقيقة.
توسيع الوصول إلى محتوى البالغين بشكل آمن.
تمكين الرقابة الأبوية والتحكم في المحتوى للمراهقين.
وتعكس هذه الإجراءات حرص OpenAI على دمج الابتكار التقني مع المسؤولية الاجتماعية والأمان الرقمي، بما يضمن استمرار الاعتماد على أدواتها الذكية كوسيلة مساعدة تعليمية واستعلامية، دون المخاطرة بصحة المستخدمين أو حقوقهم القانونية.







