“واتساب” يطلق خاصية كتابة الرسائل بالذكاء الاصطناعي

“واتساب” يطلق خاصية كتابة الرسائل بالذكاء الاصطناعي

أعلنت شركة تطبيق التواصل الاجتماعي “واتساب” عن خاصية جديدة مدعومة بالذكاء الاصطناعي تتيح للمستخدمين إعادة صياغة رسائلهم أو تدقيقها أو تعديل نبرتها. وتعتمد الميزة الجديدة، التي تحمل اسم “مساعدة الكتابة” (Writing Assist)، على تقنية المعالجة الخاصة بشركة ميتا بلاتفورمز المالكة للتطبيق، وتوفّر للمستخدمين ردوداً مُولّدة بالذكاء الاصطناعي دون أن تطلع “ميتا” أو “واتساب” على محتوى الرسالة الأصلية أو صياغتها. وبذلك تبقى خصوصية الرسائل محفوظة حتى عند استخدام الأداة.

من خلال هذه الخاصية، يمكن للمستخدم الحصول على مقترحات معاد صياغتها بطريقة محترفة أو مرحة أو داعمة أو حتى بنبرة جديدة كلياً. ولإبراز إمكاناتها، عرض “واتساب” مثالاً لرسالة أصلية تقول: “من فضلك لا تترك جواربك المتسخة على الأريكة”. ثم قامت أداة “مساعدة الكتابة” بتحويلها إلى عبارات طريفة مثل: “من فضلك لا تجعل الأريكة مقبرة للجوارب”، “خبر عاجل: تم العثور على جوارب على الأريكة. أرجوك انقلها”، “يا خبير الجوارب، سلة الغسيل في هذا الاتجاه!”. وتأمل المنصة أن تساعد هذه الخاصية المستخدمين على كتابة رسائل أفضل من داخل التطبيق مباشرة، بدلاً من اللجوء إلى أدوات خارجية مثل “تشات جي بي تي“.

لكن موقع تك كرانش (TechCrunch) أشار إلى أن الخاصية قد لا تلقى ترحيباً من جميع المستخدمين، إذ قد يفضّل بعضهم إبقاء محادثاتهم مع الأصدقاء والعائلة شخصية وصادقة بعيداً عن تدخل الذكاء الاصطناعي. فبينما يُعد استخدام هذه التقنية لإعادة صياغة بريد إلكتروني رسمي أمراً مقبولاً، فإن توظيفها في الرسائل الشخصية يظل موضع جدل. وبحسب “واتساب”، يمكن الوصول إلى الميزة الجديدة بالنقر على رمز القلم الذي يظهر عند كتابة رسالة داخل التطبيق. وقد بدأت خاصية “مساعدة الكتابة” بالانطلاق باللغة الإنجليزية في بعض الدول منذ يوم الأربعاء الماضي.

(أسوشييتد برس)

روبوت دردشة سعودي جديد، هل ينافس “تشات جي بي تي” و”ديب سيك”؟

روبوت دردشة سعودي جديد، هل ينافس “تشات جي بي تي” و”ديب سيك”؟

“اغلِ لتراً من الماء، وضع عليه ملعقتين من القهوة العربية الخضراء بعد تحميصها وطحنها، واترك القدر على نار هادئة لمدة 10 دقائق، وبعد إطفاء النار أضِف الهيل والزعفران والزنجبيل”. هذه كانت وصفة تحضير القهوة العربية على طريقة تطبيق الذكاء الاصطناعي “هيوماين تشات”.

“هيوماين تشات”، هو روبوت دردشة سعودي مدعوم بالنموذج اللغوي الكبير “علّام”، المطور بالكامل في المملكة العربية السعودية. وتُعرِّف الشركة المطورة التطبيق، بأنه “مساعد ذكي مصمم خصيصاً لخدمة المتحدثين باللغة العربية”.

وقد أطلقت شركة هيوماين التطبيق قبل أيّام، وحصرت استخدامه حالياً بالسعودية، رغم أنه مجهّز لتقديم إجاباته بعدد من اللهجات العربية المختلفة، منها المصري والسوري واللبناني والأردني فضلاً عن اللهجات المحلية لدول الخليج.

وطلبنا من مستخدمين مقيمين في السعودية، أن يسألوا التطبيق عدّة أسئلة، منها طريقة تحضير القهوة العربية، وأسئلة أخرى متعلقة بالترجمة والعلميات الحسابية، وكانت إجاباته دقيقة.

وتروّج الشركة المطورة للتطبيق لخاصية التحدّث بمختلف اللهجات العربية، بقولها “اكتب بطريقتك، أو تكلّم بلهجتك.. في الحالتين بيفهمك”.

وفي هذا الصدد، يتحدّث خبراء لبي بي سي عن التحديات التي تواجه القائمين على التطبيق فيما يتعلّق بترميز اللغة العربية في ظل وجود لهجات مختلفة.

ويقول الدكتور نادر غزال رئيس المجلس الأفريقي الآسيوي للذكاء الإصطناعي والأمن السيبراني، إن صعوبة ترميز اللغة العربية يكمن بوجود تشكيل للغة، وباختلافه يختلف معنى وسياق الجملة.

ويوضح أن الحديث مع روبوت الدردشة باللهجة العامية يُصعّب عليه توليد الإجابة، لاختلاف اللهجات التي تختلف معها سياقات الحديث والسياقات الثقافية.

كما يشير غزال إلى تحدٍّ آخر يواجه التطبيقات حديثة الإصدار، ألا وهو صغر النموذج اللغوي المستخدم، وإمكانية انحيازها لفئات معينة؛ كأن تتدرب هذه الروبوتات على بيانات ذكورية ما سيجعل إجاباتها منحازة للذكور.

ويتّفق معه الخبير في تقنيات “البلوك تشاين” والذكاء الاصطناعي معاذ خليفات، الذي يرى أن عدم توازن بيانات التدريب قد يسبب بعض التحيزات في النتائج، لذلك يجب أن يتم تدريب النموذج بتوازن من حيث اللهجات والخلفيات الثقافية المختلفة في المنطقة والجغرافيا وأنماط الحياة المتعددة التي تختلف من دولة عربية لأخرى.

ويقول لبي بي سي، إن التحدي الأبرز لتطوير نموذج لغوي عربي يتمثل بندرة البيانات الموثّقة للهجات مقارنة بالفصحى، إضافة إلى عدم وجود شكل واحد لكتابة اللهجات العامية، مما يجعل هذه البيانات غير مستقرة.

وبرأي خليفات، فإن اللهجات المتعددة لا تختلف فقط من ناحية النطق، بل أيضاً من ناحية الانتماء الاجتماعي والثقافي للمستخدم، معتبراً أن “تجاهل ذلك قد يولّد تحيّزاً”.

ويضيف أن التحول المستمر للغة العامية التي تتغير بسرعة بسبب عوامل الجغرافيا، والموسيقى، والإعلام، والتواصل الرقمي، تشكل تحدياً إضافياً، على عكس الفصحى التي تعتبر الأثبت.

وتصدّر “هيوماين تشات” قائمة التطبيقات في متجر “Apple Store” في السعودية، خلال أيام قليلة من إطلاقه في البلاد.

“إغلاق فجوة رقمية”

ويعتبر خليفات إطلاق هذا النموذج، بمثابة إغلاقٍ لفجوة رقمية عمرها سنوات، مشيراً إلى أن المستخدمين العرب يتعاملون مع نماذج مُدربة بالأساس على اللغة الإنجليزية التي بطبيعتها لا تفهم السياق الثقافي والديني للمنطقة.

ويبيّن أن وجود نموذج ذكاء اصطناعي مُدرّب عربياً ويفهم الصياغات الفصيحة والمحكية ويستوعب الحسّ الثقافي والديني والاجتماعي، سيرفع بالتأكيد من دقة المخرجات.

وفيما يتعلّق بحماية بيانات المستخدمين، يقول خليفات إن تطبيق “هيوماين تشات” يمتثل لنظام حماية البيانات الشخصية السعودي (PDPL)، كما تنص سياسة الخصوصية على ضوابط شديدة لنقل البيانات للخارج عند الضرورة وفق متطلبات الجهة المختصة في السعودية.

بدوره، يشدد الدكتور غزال على أن التخزين السحابي لنموذج “علّام” موجود في السعودية لا خارجها، مقارنة بنماذج لغوية عربية أخرى تستخدم التخزين السحابي لشركة مايكروسوفت، وذلك في إشارة إلى وجود ضمانات بالحفاظ على خصوصية بيانات المستخدم.

ويضيف أن ما يميز النموذج اللغوي “علّام” عن النماذج العربية الأخرى، أنه يراعي الثقافة العربية والإسلامية بشكل كبير، إضافة إلى اعتماده على الكتب كمراجع بصورة أكبر من غيره، حيث يعتمد نموذج “علّام” على أكثر من 394 ألف كتاب باللغة العربية، وفق ما تفيد شركة “هيوماين إيه آي”.

“كل مجال دخل فيه الذكاء البشري سيدخل إليه الذكاء الاصطناعي”

وبشأن منافسة روبوتات الدردشة التوليدية العالمية، يرى غزال أن تطبيق “هيوماين تشات” ليس هدفه أن ينافس النماذج العالمية مثل “تشات جي بي تي” و”ديب سيك”، كونه موجه لمستخدمين محددين من العرب.

ويضيف أن روبوتات الدردشة التوليدية تتنافس بين بعضها بحجم نماذج اللغة المستخدمة، وفي حالة “هيوماين تشات” فإن نموذجه اللغوي “علاّم” المكوّن من 34 بليون وحدة لغوية لا يزال أصغر حجماً من النموذج اللغوي المستخدم في “تشات جي بي تي” على سبيل المثال الذي يتكوّن من 1.7 ترليون وحدة لغوية.

وينوه إلى أن هذه النماذج اللغوية ذاتية التعلّم، أي تتعلّم من تفاعل المستخدمين معها، وبالتالي تكبر قاعدة البيانات الخاصة بها، أو ما يسمى “بالوحدات اللغوية”.

ويبيّن غزال أن “كل مجال دخل فيه الذكاء البشري سيدخل إليه الذكاء الاصطناعي التوليدي”، سواء في الجانب الصحي أو الخدماتي الحكومي أو الاقتصادي أو غيرها من القطاعات.

أمّا خليفات، فيرى أن “هيوماين تشات” سيدخل بمنافسة قوية في الأسواق العالمية إذا ما استمر بخطة التطوير المُعدّة له للسنوات الخمس المقبلة، حتى مع بقاء التفوّق العام للنماذج العالمية في بعض المهام العريضة.

ويقول إن المنافسة المباشرة صعبة على أي نموذج جديد، “لكن هيوماين تبنّى ميزة سيادية واضحة، وهي؛ ببناء نموذج عربي، وإنشاء بنية رقمية داخل المملكة، مع شراكات ضخمة لتمكين القدرة الحاسوبية”.

ويرى أن أكثر القطاعات المستفيدة من هذه النماذج، هي المدن الذكية، وقطاعات الطاقة والرعاية الصحية والتصنيع والخدمات المالية.

أمّا في الختام، فإن كنت تنوي تجربة وصفة القهوة التي اقترحها “هيوماين تشات”، تجدر الإشارة إلى أنه نصح بإضافة القليل من القرنفل للقهوة، وتقديمها ساخنة مع التمر.

صحف عالمية تنشر مقالات مزيفة أنتجها الذكاء الاصطناعي

صحف عالمية تنشر مقالات مزيفة أنتجها الذكاء الاصطناعي

بعد ثلاثة أشهر من إعلان مجلة بيزنس إنسايدر (Business Insider) خطتها لشطب نحو ثلث وظائفها في ظل تزايد الاعتماد على تقنيات الذكاء الاصطناعي، اضطرت المجلة المملوكة لدار النشر العملاقة “أكسيل سبرنغر” (Axel Springer) إلى حذف مقالات اتضح أنها كُتبت باستخدام الذكاء الاصطناعي. ووفقاً لصحيفة برس غازيت (Press Gazette) البريطانية المتخصّصة في شؤون الإعلام، فإن مطبوعتين أخريين هما مجلة وايرد (Wired) المتخصّصة في التكنولوجيا، وموقع منظمة “إندكس أون سينسورشيب” (Index on Censorship) المعنية بمراقبة حرية التعبير، اضطرتا بدورهما إلى حذف مقالات نُشرت باسم الكاتبة ماراجو بلانشارد. وجاء الحذف بعدما تبيّن أنّ المقالات تحتوي على تلفيقات صارخة، من بينها اختلاق أسماء بلدات وشركات، وهي تفاصيل لم يلتفت إليها المحررون قبل النشر.

ودقّت صحيفة ذا ديسباتش (The Dispatch) البريطانية ناقوس الخطر، فبعد أن طلبت من بلانشارد مقالاً عن بلدة تعدين وهمية في ولاية كولورادو، نقلت التفاصيل إلى برس غازيت. وفي سياق مماثل، نشرت مجلة وايرد مقالًا لبلانشارد حول أشخاص حقيقيين “يتزوّجون” عبر الإنترنت من خلال منصّات مثل “ماينكرافت” (Minecraft) و”روبلوكس” (Roblox). لكن المجلة اعترفت في آب/آب الجاري، في مقال اعتذار، بأنّها “تعرّضت للاحتيال من جانب كاتب حر استخدم الذكاء الاصطناعي في كتابة المقال كاملًا”، مضيفة: “إذا كانت هناك جهة يُفترض أن تكتشف احتيال الذكاء الاصطناعي فهي ’وايرد‘… للأسف، نجح أحدهم في تضليلنا”.

أما “بيزنس إنسايدر”، فقد نشرت لبلانشارد مقالين في إبريل/نيسان الماضي، أي قبل نحو شهر من إعلانها تسريح 21 % من موظفيها ضمن خطتها “لتبنّي الذكاء الاصطناعي بشكل كامل”. كان عنوان المقال الأول: “العمل عن بُعد كان أفضل شيء لي والداً، ولكنه الأسوأ بالنسبة لي شخصاً”، بينما حمل الثاني عنوان: “أنجبت طفلي الأول في سن الخامسة والأربعين. أنا مستقر مالياً ولدي سنوات من الخبرة الحياتية تُرشدني”. وبعد ذلك حذفت المجلة المقالين واستبدلتهما برسالة قصيرة على الموقع تقول: “حُذف هذا المقال لعدم استيفائه معايير بيزنس إنسايدر”.

ويمثّل هذا التطوّر انتكاسة للجهود التي تبذلها العديد من غرف الأخبار لخفض التكاليف وزيادة الإنتاجية عبر تقنيات الذكاء الاصطناعي. وتشير دراستان أُجريتا في آذار/آذار وآب/آب الماضيين إلى أنّ نحو نصف صحافيي العالم يعتمدون اليوم على الذكاء الاصطناعي في إنتاج موادهم الصحافية.

(أسوشييتد برس)

كيف يمكننا حماية خصوصية محادثاتنا مع روبوتات الذكاء الاصطناعي؟

كيف يمكننا حماية خصوصية محادثاتنا مع روبوتات الذكاء الاصطناعي؟

هل أخبرت روبوت دردشة بمعلومات أو أسرار شخصية؟ هل أجريت جلسات “علاج نفسي” مع نموذج ذكاء اصطناعي؟ إذا كانت الإجابة بنعم، فلست وحدك، إذ إن هناك عدداً متزايداً من الأشخاص الذين يستخدمون “تشات جي بي تي” على سبيل المثال، للحصول على نصائح في أمور شخصية وكأداة للعلاج، وفق سام ألتمان المدير التنفيذي لشركة أوبن إيه آي OpenAI صاحبة روبوت الدردشة الشهير. لكن هل فكرت يوماً فيما إذا كانت هذه المحادثات خاصة لا يمكن أن يطلع عليها غيرك، أو إذا كانت تشكل مساحة آمنة؟

الإجابة بالنفي، وفق تصريحات أدلها بها ألتمان مؤخراً وأشار فيها إلى أنه إذا تحدث المستخدم مع “تشات جي بي تي” عن أمور شخصية بالغة الحساسية، ثم كانت هناك دعوى قضائية ضده، فإن الشركة من الممكن أن تُلزَم بتقديم تلك المحادثات.

تصريحات ألتمان تثير أسئلة مهمة تتعلق بخصوصية البيانات واحتمال تسربها أو إساءة استخدامها، والمخاطر السيبرانية التي تنتج عن تزويد روبوتات الدردشة بمعلومات حساسة.

  • هل يجعلنا الذكاء الاصطناعي “أكثر غباء”؟
  • “هلاوس” الذكاء الاصطناعي، ما أسبابها؟ وهل يمكن التغلب عليها؟

هل يوجد شيء اسمه “محادثة خاصة” مع روبوتات الدردشة؟

روبوتات الدردشة الشهيرة مثل “تشات جي بي تي” و”كوبايلوت” و”جيميناي” لا توفر خاصية التشفير من طرف إلى طرف، التي تضمن أن الرسائل أو البيانات يتم تشفيرها على جهاز المرسل ولا تُفَك شفرتها إلا على جهاز المستلم. وتُستخدم هذه الخاصية على نطاق واسع في تطبيقات مثل “واتساب” و”سيغنال” و”آي مسج” لحماية خصوصية المستخدمين ومنع اعتراض البيانات.

عادة ما تقوم منصات الذكاء الاصطناعي بجمع البيانات وتخزينها لتدريب نماذجها بغرض تحسينها. هذه البيانات قد تستخدم لتحليل سلوك المستخدم وتحديد الاتجاهات الشائعة، أو “التريندات”.

تقول إيفا غالبرين، مديرة الأمن السيبراني بمؤسسة إلكترونيك فرانتيير غير الربحية التي تعمل في مجال الدفاع عن الحريات المدنية في الفضاء الرقمي، لبي بي سي عربي إنه “يمكن للشركة التي تشغّل نظام الذكاء الاصطناعي أن ترى تلك المحادثات، وقد تقوم بما يعرف بعملية التنقيب في البيانات (data mining) أو بيع محتوى المحادثة”.

ويلفت الدكتور مايكل فيل، أستاذ الحقوق والقواعد الرقمية بكلية القانون في جامعة يونيفرسيتي كولدج لندن، إلى أن بعض روبوتات الدردشة بشكل عام “توفر إعدادات إذا تم تفعيلها يمكن أن تحد من استخدام محادثات الأفراد في التدريبات المستقبلية”، لكنه يضيف أنها “تحتفظ بكل البيانات بغرض مراقبة المحتوى، أي التحقق مما إذا كنت قد قلت شيئاً ضاراً أم لا والتعلم من ذلك”.

كما أن بعض الأشخاص لا يدركون أنهم يجعلون محتويات محادثاتهم متاحة للآخرين.

على سبيل المثال، مستخدمو تطبيق روبوت الدردشة الجديد التابع لشركة “ميتا” قد لا يدركون أنهم عندما يضغطون على خيار المشاركة “Share” فإنهم يضيفون محادثاتهم إلى قائمة المحتوى “Discover”، وهو ما يعني أن المستخدمين الآخرين بات باستطاعتهم رؤيتها.

تحدث العديد من خبراء الأمن السيبراني عن أن ذلك يشكل مشكلةً أمنيةً كبيرة لأنه يمكن تتبع المحادثة بسهولة إلى حسابات على وسائل التواصل الاجتماعي من خلال أسماء المستخدمين أو صور البروفايل الخاصة بهم.

  • عندما تتحول الروبوتات إلى أسلحة فتاكة
صورة تعبيرية ليد شخص يجري محادثة مع روبوت دردشة يعمل بتكنولوجيا الذكاء الاصطناعي على لابتوب
عادة ما تقوم منصات الذكاء الاصطناعي بجمع البيانات وتخزينها لتدريب نماذجها بغرض تحسينها

في وقت سابق من الشهر الحالي، وفي مثال آخر على مخاطر افتراض أن محادثات الذكاء الاصطناعي تتمتع بالسرية، سُربت محادثات مع “تشات جي بي تي” إلى محرك البحث “غوغل”، بعضها يحتوي على مواد حساسة مثل مناقشات تتعلق بمضاربات في البورصة وتفاصيل شخصية واعترافات عاطفية أو قانونية.

حدث ذلك بسبب خاصية المشاركة “Share” التي تسمح للمستخدمين بإنشاء رابط يتيح للآخرين الاطلاع على المحادثة. أثناء المشاركة، كان هناك خيار “Make this chat discoverable” الذي إذا تم تفعيله، فإن الرابط يصبح قابلاً للفهرسة على محركات البحث مثل “غوغل”، ومن ثم يظهر في نتائج البحث. وقد دفع ذلك شركة “أوبن إيه آي” إلى التخلص من هذا الخيار، كما قالت إنها تعمل على إزالة المحادثات من محركات البحث.

لكن خبراء في مجال الإنترنت نبهوا إلى أنها قد تظل متاحة من خلال بعض الأدوات التي تحفظ أو تخزن صفحات الإنترنت، مثل تلك الموجودة على موقع “أرشيف الإنترنت” Internet Archive.

كما يلفت الدكتور فيل إلى أن “أحد أبرز الصعوبات هي أن بعض روبوتات الدردشة، كتلك الموجودة على أجهزة غوغل أو أبل، مدمجة في نظام التشغيل وكل ملفاتك ورسائلك الموجودة عليه”.

خبير القانون الرقمي يشرح قائلا إنه “من الصعب جداً فهم ما سيحدث لتلك البيانات. والمخاطر الأمنية لهذا الدمج كبيرة، لا سيما عندما تعطى ربوتات الدردشة القدرة على الدخول على شبكة الإنترنت أو التفاعل معها، إذ إن هذا قد يؤدي إلى تسريب المعلومات من جهازك إلى مواقع أخرى”.

هل يمكن أن تتعرض روبوتات الدردشة للقرصنة؟

قد تتعرض روبوتات الدردشة لما يعرف بـ”هجمات حقن الأوامر” “prompt injection attacks”، وهي نوع من الهجمات السيبرانية التي تشمل إدخال بيانات أو أوامر خبيثة لنموذج الذكاء الاصطناعي بغرض الحصول على بيانات حساسة أو وثائق خاصة يحتفظ بها ذلك النموذج.

كما أن “الشركة [المشغلة للروبوت] نفسها من الممكن أن تتعرض للقرصنة، لكن هذا يكون أحياناً أقل إثارة للقلق عندما يتعلق الأمر بشركات تكنولوجيا كبرى، مقارنةً بتسريب حساب فردي. ومع ذلك، فإن العديد من الأنظمة يتم دمجها بشكل متزايد مع خدمات أطراف ثالثة، ومثل هذا الأمر اعتاد تاريخياً أن يجعل البيانات شديدة القابلية للتسريب ومعرضة للاختراق”، على حد قول الدكتور فيل.

هل يمكن لمحادثات الذكاء الاصطناعي أن تُستخدم ضدك؟

“إذا ذهبت للتحدث مع تشات جي بي تي عن أكثر أمورك حساسية، ثم كانت هناك دعوى قانونية مقامة ضدك أو شيء من هذا القبيل، فإننا قد نجبَر على تقديم تلك البيانات، وأعتقد أن هذا أمر غير سليم على الإطلاق”، هكذا قال سام ألتمان خلال ظهوره في أحد حلقات بودكاست صانع المحتوى الرقمي “ثيو فون” في أواخر تموز/تموز.

في الوقت الحالي، يمكن لجهات إنفاذ القانون أن تطلب بيانات تتعلق بالمستخدمين أنفسهم أو بمحتوى محادثاتهم مع نماذج الذكاء الاصطناعي.

وتكشف تقارير “أوبن إيه آي” عن زيادة في عدد الطلبات التي تتلقاها من جهات إنفاذ القانون وغيرها من الوكالات الحكومية للحصول على بيانات المستخدمين، لإدراك “الشرطة ووكالات الاستخبارات أنها مصدر قيّم للمعلومات التي تتعلق بما يفعله الناس على أجهزة الكمبيوتر الخاصة بهم”، على حد قول الدكتور فيل.

ومع تزايد عدد الأشخاص الذين يلجأون إلى “تشات جي بي تي” للحصول على الاستشارات الطبية والقانونية، يلفت ألتمان إلى أنه “عندما تتحدث مع معالج نفسي أو محام أو طبيب عن هذه المشكلات، فإن هناك امتيازات قانونية، هناك السرية المهنية بين الطبيب والمريض، وبين المحامي والموكل. هذا غير متوافر بعد فيما يخص حديثك مع تشات جي بي تي”. وطالب ألتمان بضرورة أن يكون هناك “نفس مفهوم الخصوصية لمحادثاتك مع الذكاء الاصطناعي”.

سام ألتمان أثناء الإدلاء بشهادته في جلسة استماع لمجلس الشيوخ بالكونغرس الأمريكي في أيار/أيار الماضي
نبه سام ألتمان المدير التنفيذي ل”أوبن إيه آي” إلى أن محادثاتنا مع “تشات جي بي تي” لن تتمتع بالخصوصية إذا تلقت الشركة أمراً قضائيها بتسليمها

كيف نحمي خصوصيتنا؟

تقول خبيرة الأمن السيبراني إيفا غالبرين إن شركات الذكاء الاصطناعي لا تتخذ إجراءات كافية لحماية خصوصية المستخدمين، خاصةً عندما لا يدرك الأشخاص أن محادثاتهم قد تخَزن أو يراجعها بشر.

وفيما يتعلق بالأطر التشريعية، يقول الدكتور فيل: ” أولاً وقبل أي شيء، ينبغي أن تصدر الحكومات قوانين قوية لحماية البيانات والخصوصية وتطبق هذه القوانين. وسوف يتطلب ذلك تعاوناً دولياً في المجال التشريعي ومجهودات ضخمة في السلك القضائي. سوف يكون نضالاً شاقاً، بل هو كذلك بالفعل، لأن الشركات تحاول اللجوء إلى الكثير من الحيل القانونية القذرة لكي تتهرب من المحاسبة في هذا المجال”.

النصيحة التي يقدمها كل من فيل وغالبرين لمستخدمي روبوتات الدردشة بسيطة للغاية: عدم إعطائها أي بيانات يفضلون أن تظل خاصة وألا تكون متاحةً للعامة، “وخاصةً إذا كانوا لا يفهمون إعدادات الخصوصية للنظم التي يستخدمونها، أو إذا كانوا لا يرغبون في المجازفة بوضع ثقتهم في تلك الشركات”.

يتحدث الكثير من خبراء الأمن السيبراني عن توخي الحذر فيما نشارك به روبوتات الدردشة من بيانات ومعلومات، ومن بين الأشياء المشتركة التي يقول هؤلاء أن المستخدم لا ينبغي أن يعطيها لتلك الروبوتات:

  • المعلومات الخاصة التي يمكن من خلالها التعرف على هويتك مثل الاسم الكامل وعنوان المنزل ورقم الهاتف وتاريخ الميلاد
  • كلمات المرور الخاصة بحساباتك على الإنترنت
  • المعلومات المالية مثل أرقام الحسابات أو البطاقات الائتمانية
  • البيانات التي تتعلق بأسرار عملك
  • بياناتك الطبية

لا شك أن روبوتات الدردشة التي تعمل بالذكاء الاصطناعي أصبحت تلعب دوراً كبيراً في الحياة اليومية للكثيرين في شتى بقاع العالم، فعدد المستخدمين النشطين ل”تشات جي بي تي” وحده بلغ ما بين 700 إلى 800 مليون مستخدم في الأسبوع وفق أحدث التقديرات. هذه الأدوات من الممكن أن تكون قيمة للغاية، لكنها ليست “مساحات آمنة” للبوح بالأسرار.

وما بين التسريبات المحتملة للمحادثات وتهديدات القرصنة واحتمال استخدام “دردشاتنا” في قاعات المحاكم، يتبين أن الخطوط الفاصلة بين ما هو خاص وما هو عام ليست بالوضوح الذي قد يتصوره البعض. من هنا تبرز أهمية فهم إعدادات الخصوصية لنموذج الذكاء الاصطناعي الذي نستخدمه، وعدم إعطائه أي معلومات شخصية أو حساسة. في نهاية المطاف نحن نتعامل مع أدوات توصف طريقة عملها بأنها “كالصندوق الأسود”، وتوصف هي نفسها بأنها “ثقب أسود للخصوصية”.

واتساب والذكاء الاصطناعي.. خاصية جديدة “قد لا تعجب الجميع”

واتساب والذكاء الاصطناعي.. خاصية جديدة “قد لا تعجب الجميع”

أعلنت شركة تطبيق التواصل الاجتماعي واتساب، السبت، خاصية جديدة بالذكاء الاصطناعي تتيح للمستخدم إعادة صياغة رسائله، أو تدقيقها، أو تعديل نبرتها.

وتستخدم هذه الميزة الجديدة، المسماة “مساعدة الكتابة”، تقنية المعالجة الخاصة من شركة “ميتا بلاتفورمس” المالكة لتطبيق واتساب، وتتيح للمستخدمين استلام ردود مُولّدة بالذكاء الاصطناعي من دون الحاجة إلى إطلاع شركة ميتا أو واتساب على الرسالة الأصلية أو إعادة صياغتها.

وهذا يعني أن خصوصية الرسائل على المنصة تظل محفوظة حتى عند استخدام الأداة الجديدة.

واتساب والذكاء الاصطناعي

وباستخدام أداة مساعدة الكتابة، يمكن للمستخدم الحصول على مقترحات رسالة مكتوبة بالذكاء الاصطناعي بعد إعادة كتابة رسالته بطريقة محترفة أو مرحة أو داعمة أو بصياغة جديدة.

واستعرض تطبيق واتساب الخاصية الجديدة من خلال تقديم رسالة أصلية لأحد المستخدمين تقول: “من فضلك لا تترك جواربك المتسخة على الأريكة”.

ثم قامت أداة “مساعدة الكتابة” باستخدام الذكاء الاصطناعي بإعادة صياغة الرسالة في عبارات “طريفة” مثل: “من فضلك لا تجعل الأريكة مقبرة للجوارب”، “خبر عاجل: تم العثور على جوارب على الأريكة. أرجوك انقلها”، و”يا خبير الجوارب، سلة الغسيل في هذا الاتجاه!”.

خاصية اختيارية 

وتأمل منصة واتساب من خلال إطلاق هذه الأداة في توفير وسيلة يمكن للمستخدم استخدامها في كتابة رسائل جيدة من داخل التطبيق، بدلًا من اللجوء إلى تطبيقات خارجية للحصول على المساعدة مثل شات جي.بي.تي.

وذكر موقع تك كرانش المتخصص في موضوعات التكنولوجيا أن هذه الخاصية قد لا تعجب الجميع بالطبع، لأن بعض المستخدمين قد يفضلون المحادثات الشخصية والصادقة مع الأصدقاء والعائلة على الرسائل المكتوبة بالذكاء الاصطناعي.

فاستخدام الذكاء الاصطناعي لإعادة كتابة رسالة بريد إلكتروني رسمية مثلا أمر، واستخدامه لإرسال رسالة شخصية إلى أحد الأصدقاء أو الأقارب أمر آخر.