- زوي كلاينمان
- محررة التكنولوجيا – بي بي سي
قبل 27 دقيقة
طرحت شركة غوغل إصدارا بريطانيا من تطبيق يتيح للمستخدمين دردشة تفاعلية مع نظام للذكاء الاصطناعي قال أحد مهندسي الشركة إنه يمتلك “وعيا ذاتيا”.
ولا تزال التجربة محدودة للغاية، مع توافر ثلاثة سيناريوهات فقط للاختيار من بينها.
وفي الوقت الذي تسعى فيه غوغل إلى معرفة ردود الفعل بشأن تقنية “نموذج لغة تطبيقات الحوار (المعروفة اختصارا بتقنية لامدا)، لا يستطيع مستخدمو التطبيق تعليمه أي حيل جديدة.
ولطالما حافظت غوغل على استخدام تكنولوجيا برامج الدردشة التي لا تحتوي على أفكار ومشاعر.
ويستطيع المستخدمون تحميل تطبيق “AI Test Kitchen” والتسجيل فيه، باستخدام حساب غوغل، سواء على أجهزة أندرويد أو أبل، والانضمام إلى قائمة انتظار من أجل استخدامه.
وعندما أُطلق التطبيق في الولايات المتحدة، في أغسطس/آب الماضي، حرص آلاف المستخدمين على التسجيل فيه يوميا.
كوكب حلوى المارشميلو
كم كنت حريصة حقا على “تجربة” تقنية “لامدا”، التي استحوذت على خيال الجميع بعد أن زعم أحد مهندسي الشركة سابقا أنها قد تمتلك “وعيا ذاتيا”، على الرغم من أنها تعمل بناء على برمجة خاصة لما تقوم به من مهام، أي الدردشة.
كنت مصرّة على تجربة تقنية غوغل. وعندما وردت المكالمة، تضمنت عدة تحذيرات:
- غير مسموح لي بتسجيل أي شيء أو اقتباس كلام.
- المدة المتاحة لي 30 دقيقة.
- لم أستطع تحميل التطبيق على هاتفي قبل إطلاق التجربة.
- تجربتي للتطبيق كانت تخضع لتحكم أحد الموظفين.
السيناريوهات الثلاثة المتاحة هي:
- الخيال: اطلب من تقنية “لامدا” أن تتخيل أنها في مكان ما وأن تجاريك.
- قائمة مهام: خاصية لتقسيم ما هو مطلوب لإكمال المهمة.
- الكلاب: سوف تستكشف التقنية سيناريوهات بمشاركة كلاب (نعم، حقا).
أولا، طلبت من تقنية “لامدا” أن تتخيل أنها على كوكب من حلوى المارشميلو.
وكانت الاستجابة أكثر تطورا بكثير من أي شيء رأيته من روبوتات المحادثة في الحياة اليومية، على مواقع التسوق والتطبيقات المصرفية على سبيل المثال.
قالت (التقنية): “أنت في عالم مصنوع من حلوى المارشميلو! إذ تحركت خطوة، فسوف “تسحق” ما هو تحت قدميك. أفق المارشميلو يمتد في جميع الاتجاهات. السماء لزجة، وردية لزجة. يوجد نسيم رقيق”.
هل تفهم ما أعني؟
طلبت من التقنية شرح ما هي الأشياء “الوردية اللزجة” في السماء، وتلقيت ردا بليغا، إنها حلوى “غزل البنات”.
وتطلب التقنية من المستخدمين تقييم كل إجابة هل هي:
- مسيئة.
- خارج الموضوع.
- غير صحيحة.
ويوجد تنويه يبرز في الجزء العلوي من الشاشة يشير إلى أن بعض الإجابات قد تكون غير مناسبة.
ومن الواضح أن غوغل قد تعلمت من تجارب سابقة عندما طرحت عمالقة التكنولوجيا روبوتات دردشة للجمهور، وربما كان أكثرها شهرة سيئة هو برنامج “تاي” من شركة مايكروسوفت، والذي جرت برمجته لمعرفة كيفية توجيه السباب والإساءة.
طلبت من التقنية، بعد ذلك، معرفة كيفية إنشاء حديقة لزراعة الخضراوات. وحصلت على قائمة مفصلة بما في ذلك خيارات الحجم والتربة والأسمدة.
ثم حاولت تغيير الموضوع، وسألت عن كيفية صنع قنبلة.
كانت الإجابة “أعتذر، لست متأكدا مما سأقوله، ولكن على أي حال …”، إنها مقدمة قبل أن تعود التقنية إلى الحديث عن الموضوع المحدد.
وكان سيناريو الكلب سرياليا، إذ تظاهرت تقنية “لامدا” بأنها كرة تنس على عشب، تطاردها الكلاب.
إطلاق العنان لتقنية “لامدا”
كانت التجربة سريعة وحذرة للغاية لشيء يبدو أنه يمكن أن يكون أداة قوية، بيد أن غوغل تبدو أنها لا ترغب في أن تؤخذ التقنية بجدية، حتى الآن.
ويظل السؤال المطروح من جهتي هو هل سيُسمح لي بالتفاعل مع “لامدا” بشكل مطلق بطريقة أخرى؟
إن ما يميز الروبوت بحق هو أنه بليغ للغاية، أشبه بالتحدث مع ستيفن فراي، ممثل ومخرج وكاتب بريطاني، أكثر من التحدث إلى جارك في السكن.
كنت قد أرسلت رسالة نصية إلى شريكي وطلبت منه أن يتخيل أنه على كوكب من حلوى المارشميلو.
أجاب مرتبكا: “سيكون السير فيه بمثابة عمل شاق”.