في تحذير صريح، نبه سام ألتمان، الرئيس التنفيذي لشركة OpenAI، من مخاطر استخدام أدوات الذكاء الاصطناعي مثل ChatGPT في مناقشة المشاكل الشخصية أو النفسية، مؤكدًا أن هذا الاستخدام قد يعرض المستخدمين للمساءلة القانونية، ويشكل تهديدًا حقيقيًا للخصوصية.
اقرأ أيضا.. كلمة مرور واحدة دمّرت شركة عمرها 158 عامًا
خلال ظهوره في بودكاست "ثيو فون"، شدد ألتمان على أن البعض بدأ يتعامل مع ChatGPT كبديل مجاني للمعالج النفسي، دون أن يدركوا أن هذه المحادثات لا تخضع لنفس معايير السرية القانونية المعترف بها بين المريض والطبيب أو بين الموكل والمحامي.
وقال: "إذا كنت تتحدث مع معالج نفسي أو طبيب، فأنت محمي قانونياً، لكن مع الذكاء الاصطناعي، لا توجد حماية مماثلة، وهذا قد يستخدم ضدك في المحاكم".
محادثات الذكاء الاصطناعي قد تستخدم قانونيًا
بحسب موقع TechCrunch، فإن هذه المحادثات قد تطلب قانونيًا من الشركة في حال تورّط المستخدم في دعوى أو تحقيق، ما يعني أن ما يكتبه المستخدم قد لا يبقى سرًا، بل يتحول إلى دليل محتمل ضده.
OpenAI تسعى لتطوير سياسات الخصوصية
ألتمان أشار إلى أن OpenAI بدأت بالفعل في التفكير جديًا بوضع سياسات جديدة لحماية خصوصية المستخدمين، خاصة مع تصاعد اعتماد الملايين حول العالم على الذكاء الاصطناعي ليس فقط للإنتاجية، بل أيضًا للفضفضة والتعبير عن المشكلات النفسية والعائلية.
المخاوف تتجاوز الاستخدام الفردي
لا يقتصر القلق فقط على المحادثات الشخصية، بل يمتد إلى كيفية تعامل أدوات الذكاء الاصطناعي مع البيانات الحساسة بشكل عام، وما قد تتيحه قدرات التحليل المتقدمة من احتمالات إساءة استخدام تلك البيانات في مجالات التسويق، أو التلاعب، أو حتى التجسس.