موجز
- تقول OpenAI إن ChatGPT Health سيتم إطلاقه لمستخدمين محددين بدءًا من هذا الأسبوع، مع خطط لتوفير وصول أوسع في الأسابيع القادمة.
- تخزن الميزة المحادثات الصحية بشكل منفصل عن الدردشات الأخرى ولا تستخدمها لتدريب نماذج OpenAI.
- يحذر دعاة الخصوصية من أن البيانات الصحية التي تتم مشاركتها مع أدوات الذكاء الاصطناعي غالبًا ما تكون خارج قوانين خصوصية الطب الأمريكية.
أعلنت OpenAI يوم الأربعاء عن ميزة جديدة في ChatGPT تتيح للمستخدمين ربط السجلات الطبية وبيانات العافية، مما أثار مخاوف بين بعض الخبراء وجماعات الدفاع بشأن استخدام البيانات الشخصية.
قالت عملاقة الذكاء الاصطناعي التي تتخذ من سان فرانسيسكو، كاليفورنيا مقرًا لها، إن الأداة المسماة ChatGPT Health، والتي تم تطويرها مع الأطباء، مصممة لدعم الرعاية وليس لتشخيص أو علاج الأمراض. وتضعها الشركة كوسيلة لمساعدة المستخدمين على فهم صحتهم بشكل أفضل.
بالنسبة للعديد من المستخدمين، أصبح ChatGPT بالفعل المنصة المفضلة لطرح الأسئلة حول الرعاية الطبية والصحة النفسية.
قالت OpenAI لـ
ديكريبت
إن ChatGPT Health يشارك فقط "معلومات صحية عامة وواقعية" ولا يقدم "نصائح طبية شخصية أو غير آمنة".
بالنسبة للأسئلة عالية الخطورة، سيقدم معلومات عامة، وينبه إلى المخاطر المحتملة، ويشجع الأشخاص على التحدث مع صيدلي أو مقدم رعاية صحية يعرف وضعهم الخاص.
تأتي هذه الخطوة بعد فترة وجيزة من إعلان الشركة في أكتوبر أن أكثر من مليون مستخدم يناقشون الانتحار مع روبوت الدردشة كل أسبوع. وكان ذلك يمثل حوالي 0.15٪ من جميع مستخدمي ChatGPT في ذلك الوقت.
بينما تمثل هذه الأرقام نسبة صغيرة نسبيًا من إجمالي عدد المستخدمين، إلا أن معظمهم سيحتاجون إلى معالجة مخاوف الأمان وخصوصية البيانات، وفقًا للخبراء.
"حتى عندما تدعي الشركات أن لديها تدابير حماية للخصوصية، غالبًا ما يفتقر المستهلكون إلى موافقة ذات مغزى أو شفافية أو سيطرة على كيفية استخدام بياناتهم أو الاحتفاظ بها أو إعادة استخدامها"، حسبما قال J.B. Branch، مدافع عن مساءلة شركات التقنية الكبرى في Public Citizen، لـ
ديكريبت.
"البيانات الصحية حساسة بشكل فريد، وبدون حدود قانونية واضحة وإشراف قابل للتنفيذ، فإن التدابير الوقائية التي تفرضها الشركات على نفسها ليست كافية لحماية الناس من سوء الاستخدام أو إعادة التعرف عليهم أو الأضرار اللاحقة."
قالت OpenAI في بيانها إن البيانات الصحية في ChatGPT Health مشفرة افتراضيًا، وتخزن بشكل منفصل عن الدردشات الأخرى، ولا تُستخدم لتدريب نماذجها الأساسية.
وفقًا لأندرو كروفورد، المستشار الأول للسياسات في مركز الديمقراطية والتكنولوجيا، يعتقد العديد من المستخدمين عن طريق الخطأ أن البيانات الصحية محمية بسبب حساسيتها، وليس بناءً على من يحتفظ بها.
"عندما تحتفظ بياناتك الصحية بها طبيبك أو شركة التأمين الخاصة بك، تطبق قواعد خصوصية HIPAA"، قال كروفورد لـ
ديكريبت
. "الأمر ليس كذلك بالنسبة للكيانات غير المشمولة بقواعد HIPAA، مثل مطوري تطبيقات الصحة، أو متتبعات الصحة القابلة للارتداء، أو شركات الذكاء الاصطناعي."
قال كروفورد إن إطلاق ChatGPT Health يسلط الضوء أيضًا على أن عبء المسؤولية يقع على عاتق المستهلكين في ظل غياب قانون خصوصية اتحادي شامل ينظم البيانات الصحية التي تحتفظ بها شركات التكنولوجيا.
"من المؤسف أن قوانيننا وأنظمتنا الفيدرالية الحالية تضع هذا العبء على المستهلكين الأفراد لتحليل ما إذا كانوا مرتاحين لكيفية تعامل التكنولوجيا التي يستخدمونها يوميًا مع بياناتهم وتشاركها"، قال.
قالت OpenAI إن ChatGPT Health سيتم إطلاقه أولًا لمجموعة صغيرة من المستخدمين.
قائمة الانتظار مفتوحة لمستخدمي ChatGPT خارج الاتحاد الأوروبي والمملكة المتحدة، مع خطط لتوفير وصول أوسع في الأسابيع القادمة على الويب وiOS. لم تذكر إعلان OpenAI أجهزة Google أو Android.