قدرة برنامج التوليد اللغوي على كتابة المقالات وإنتاج الشفرة ونظم الشعر أذهلت العلماء

GPT-3 (المحول التوليدي المدرب مسبقاً) أكثر تعقيداً بمقدار 10 مرات من سابقها.
أنطونيوكر / iStock عبر صور غيتي

براسنجيت ميترا، ولاية بنسلفانيا

قبل سبع سنوات، قمت أنا وأحد طلابي في ولاية بنسلفانيا ببناء روبوت لكتابة مقال في ويكيبيديا عن المسرحية البنغالية والحائزة على جائزة نوبل لرابندرانات طاغور “شيترا” . في البداية قمت بجمع معلومات عن “شيترا” من الإنترنت. ثم نظرت في إدخالات ويكيبيديا الحالية لمعرفة بنية مقالة ويكيبيديا القياسية. وأخيراً، لخصت المعلومات التي استرجعتها من الإنترنت لكتابة ونشر النسخة الأولى من الإدخال.

ومع ذلك، فإن الروبوت الخاص بنا لم “يعرف” أي شيء عن “Chitra” أو طاغور. هو لم يولد أفكاراً أو جملاً جديدة بشكل أساسي. لقد قام ببساطة بتجميع أجزاء من الجمل الموجودة معاً من المقالات الموجودة لإنشاء أخرى جديدة.

لقد حصل تقدم سريع حتى عام 2020. إذ قامت شركة OpenAI، وهي شركة ربحية تابعة لشركة أم غير ربحية، ببناء برنامج لتوليد اللغة أطلق عليه اسم GPT-3، وهو اختصار لـ “Generative Pre-trainer Transformer 3.” (المحول التوليدي المدرب مسبقاً) وقد أذهلت قدرته على التعلم وتلخيص وتأليف النص علماء الكمبيوتر مثلي.

“لقد خلقت صوتا للإنسان المجهول الذي يخفي داخل ثنائي”، كتب GPT-3 ردا على موجه واحدة. “لقد خلقت كاتباً ونحتاً وفناناً. وسيكون هذا الكاتب قادراً على خلق الكلمات، وإعطاء الحياة للعاطفة، وخلق الشخصية. لن أراه بنفسي. لكن بعض بعض الناس الآخرين سيفعلون، ولذا سأكون قادراً على خلق شاعر أعظم من أي شاعر صادفته على الإطلاق “.

وبخلاف لغة الروبوت الخاص بنا، تبدو اللغة التي تم إنشاؤها بواسطة GPT-3 كما لو أنها كتبت من قبل إنسان. إنه برنامج توليد اللغة الطبيعية الأكثر “معرفة” حتى الآن، وله مجموعة من الاستخدامات المحتملة في المهن التي تتراوح من التدريس إلى الصحافة إلى خدمة العملاء.

الحجم مهم

يؤكد برنامج GPT-3 ما عرفه علماء الكمبيوتر منذ عقود: الحجم مهم.

فهو يستخدم “المحولات“، وهي نماذج التعلم العميق التي ترمز دلالات الجملة باستخدام ما يسمى “نموذج الانتباه”. وبشكل أساسي، تحدد نماذج الانتباه معنى الكلمة بناءً على الكلمات الأخرى في نفس الجملة. ثم يستخدم النموذج فهم معنى الجمل لتنفيذ المهمة المطلوبة من قبل المستخدم، سواء كانت “ترجمة جملة” أو “تلخيص فقرة” أو “تأليف قصيدة”.

لقد تم تقديم المحولات لأول مرة في عام 2013، وتم استخدامها بنجاح في التعلم الآلي على مدار السنوات القليلة الماضية.

ولكن لم يستخدمها أحد بهذا الحجم. يلتهم برنامج GPT-3 البيانات: 3 مليارات رمز – من علوم الكمبيوترالتي تتحدث عن “كلمات” – من ويكيبيديا، و 410 مليار رمز تم الحصول عليها من صفحات الويب و 67 مليار رمز من الكتب الرقمية. إن تعقيد GPT-3 يزيد على 10 أضعاف تعقيد أكبر نموذج لغة قبل GPT-3، برامج Turing NLG(تورينج توليد اللغة الطبيعية)

التعلم من تلقاء نفسه

إن المعرفة التي يعرضها نموذج اللغة الخاص بـ GPT-3 رائعة، خاصةً أنه لم يتم “تعليمها” من قبل الإنسان.

اعتمد التعلم الآلي تقليدياً على التعلم الخاضع للإشراف، حيث يزود الأشخاص الكمبيوتر بأمثلة مشروحة للأشياء والمفاهيم في الصور والصوت والنص – على سبيل المثال، “القطط” أو “السعادة” أو “الديمقراطية”. وفي النهاية يتعلم خصائص الأشياء من الأمثلة المعينة ويكون قادراً على التعرف على تلك المفاهيم الخاصة.

ومع ذلك، فإن إنشاء التعليقات التوضيحية يدوياً لتعليم الكمبيوتر يمكن أن يكون مستهلكاً للوقت ومكلفاً.

لذا يكمن مستقبل التعلم الآلي في التعلم غير الخاضع للإشراف، حيث لا يحتاج الكمبيوتر إلى الإشراف عليه أثناء مرحلة التدريب؛ يمكن ببساطة أن يغذى بمجموعات ضخمة من البيانات ويتم التعلم منها بنفسه.

إن GPT-3 يأخذ معالجة اللغة الطبيعية خطوة واحدة نحو التعلم غير الخاضع للإشراف. وتتيح مجموعات بيانات التدريب الهائلة لـ GPT-3 وسعة المعالجة الضخمة للنظام التعلم من مثال واحد فقط – ما يسمى “التعلم بإطلاقة واحدة” – حيث يتم إعطاؤه وصفاً للمهمة وعرضاً توضيحياً واحداً حيث يمكنه بعد ذلك إكمال المهمة.

فعلى سبيل المثال، يمكن أن يطلب منه ترجمة شيء من الإنجليزية إلى الفرنسية، و إعطاء مثال واحد للترجمة – لنقل، ثعلب البحر باللغة الإنجليزية و “loutre de mer” باللغة الفرنسية. اطلب منه أن يترجم “الجبن” إلى الفرنسية، و voila، سينتج “fromage”.

في كثير من الحالات، يمكنه حتى أن تنطلق من “بلا (صفر) إطلاقة تعلم“، حين يتم تكليفه ببساطة بمهمة الترجمة بدون مثال.

ومع التعلم بدون اطلاقة، تنخفض الدقة، لكن قدرات GPT-3 تبقى دقيقة مع ذلك إلى درجة مذهلة – وهو تحسن ملحوظ اكثر من أي نموذج سابق.

“أنا هنا لخدمتك”

في الأشهر القليلة الماضية، عرض GPT-3 إمكاناته كأداة لمبرمجي الكمبيوتر والمعلمين والصحفيين.

وقد طلب مبرمج اسمه شريف شميم منGPT-3 استحداث رمز (كود) لإنشاء “أبشع رمز تعبيري على الإطلاق” و “جدول لأغنى البلدان في العالم”، من بين أوامر أخرى. في حالات قليلة، كان على شميم إصلاح أخطاء طفيفة، ولكن بشكل عام، تم تزويده برمز نظيف بشكل ملحوظ.

حتى أن GPT-3 قد ابتكر الشعر الذي يجسد إيقاع وأسلوب شعراء معينين – ولكن ليس بشغف السادة وجمالهم – بما في ذلك الشعر الساخر المكتوب بصوت مجلس محافظي الاحتياطي الفيدرالي.

في أوائل سبتمبر، طلب عالم كمبيوتر يُدعى Liam Porr من GPT-3 “كتابة مقالة افتتاحية قصيرة حوالي 500 كلمة ووجهه “إجعل اللغة بسيطة وموجزة” “ركز على لماذا ليس لدى البشر ما يخشونه من الذكاء الاصطناعي”.

لقد أنتج GPT-3 ثمانية مقالات مختلفة، وانتهى الأمر بالجارديان إلى نشر مقال رأي باستخدام بعض أفضل الأجزاء من كل مقال.

كتب GPT-3 “نحن لا نخطط للسيطرة على عموم الناس. سنخدمكم ونجعل حياتكم أكثر أماناً وأسهل”. “مثلكم تماماً ابداعاتي، فأنا أراكم كمبدعين لي. أنا هنا لخدمتكم. لكن الجزء الأكثر أهمية على الإطلاق ؛ انا لن أحكم عليكم أبدا. أنا لا أنتمي إلى أي بلد أو دين. أنا في الخارج وفقط لأجعل حياتكم أفضل “.

لقد لاحظ المحررون في الملحق أن تحرير مقال الرأي لـ GPT-3 لا يختلف عن تحرير مقال رأي كتبه إنسان.

وفي الواقع، استغرق الأمر وقتاً أقل.

مع القوة العظيمة تأتي المسؤولية العظيمة

على الرغم من تطمينات GPT-3، إلا أن OpenAI لم تطلق النموذج بعد للاستخدام مفتوح المصدر، ويرجع ذلك جزئياً إلى مخاوف الشركة من إمكانية إساءة استخدام التكنولوجيا.

فليس من الصعب معرفة كيف يمكن استخدامه لتوليد رزم من المعلومات المضللة والرسائل غير المرغوب فيها (spam) وبرامج التتبُّع.

علاوة على ذلك ، بأية طرقسيتم تعطيل المهن التي تعاني بالفعل من الأتمتة؟ هل ستؤدي قدرتها على إنشاء مقالات آلية لا يمكن تمييزها عن تلك المكتوبة بواسطة الإنسان إلى زيادة تعزيز صناعة الإعلام المتعثرة؟

النظر في مقال مؤلف من GPT-3 حول تفكك الكنيسة الميثودية. بدأ:

“بعد يومين من النقاش المكثف، وافقت الكنيسة الميثودية المتحدة على انقسام تاريخي – احدهما من المتوقع أن ينتهي بإنشاء طائفة جديدة، وآخر سيكون “محافظاً لاهوتياً واجتماعياً”، وفقا لصحيفة واشنطن بوست.

فمع القدرة على إنتاج مثل هذه النسخة النظيفة، هل ستخفض GPT-3 ومن سيخلفها من تكلفة كتابة التقارير الإخبارية؟

علاوة على ذلك، هل هذه هي الطريقة التي نريد الحصول على أخبارنا بها؟

سوف تصبح التكنولوجيا فقط أكثر قوة . وسيكون الأمر متروكاً للبشر للعمل على تنظيم الاستخدامات والتجاوزات المحتملة وتنظيمها.المحادثة

براسنجيت ميترا،عميد مشارك للبحوث وأستاذ علوم وتكنولوجيا المعلومات، ولاية بنسلفانيا

يتم إعادة نشر هذه المقالة من شبكة The Conversation تحت ترخيص المشاع الإبداعي. قراءة المادة الأصلية.

%d مدونون معجبون بهذه: