“فكرة فيتاليك بوترين الجريئة: هل يكون التوقف العالمي عن الذكاء الاصطناعي آخر أمل لنا؟”

Copy link
URL has been copied successfully!

 

في منشور مدوّن مثير للتفكير، طرح فيتاليك بوترين، مؤسس الإيثيريوم، سؤالًا عاجلًا: ماذا لو أصبحت التكنولوجيا التي نخلقها، وتحديدًا الذكاء الاصطناعي الخارق، متقدمة لدرجة تهدد البشرية؟ بوترين اقترح حلًا جذريًا لإبطاء تطور الذكاء الاصطناعي ومنحنا مزيدًا من الوقت للاستعداد لما هو قادم: توقف عالمي عن استخدام أجهزة الكمبيوتر الخاصة بالذكاء الاصطناعي.

إليك الفكرة: بوترين يعتقد أننا قد نكون على بعد خمس سنوات فقط قبل أن يصبح الذكاء الاصطناعي الخارق واقعًا، وما ستكون تبعاته غير معروفة. لمنع حدوث نتائج خطيرة، يقترح شيء متطرف لكنه ضروري: “توقف ناعم” على موارد الحوسبة العالمية المستخدمة في تطوير الذكاء الاصطناعي، يستمر لمدة عام أو عامين. هذا سيساهم في تقليص الموارد المتاحة ويؤدي إلى إبطاء تقدم الذكاء الاصطناعي، مما يمنحنا مزيدًا من الوقت لفهم كيفية التحكم فيه.

لكن لماذا قد تنجح هذه الفكرة؟ الفكرة بسيطة: يعتمد الذكاء الاصطناعي على الوصول إلى موارد حوسبية ضخمة—مراكز البيانات والحواسيب العملاقة. من خلال تقليص هذه الموارد، يعتقد بوترين أننا يمكننا منع الذكاء الاصطناعي من الوصول إلى مستويات خطيرة بسرعة كبيرة.

ولكن هناك المزيد من التفاصيل في هذه الفكرة. يقترح بوترين نهجًا دقيقًا لجعل هذا التوقف ممكنًا، بما في ذلك تتبع وتسجيل أجهزة الذكاء الاصطناعي، وفرض موافقة من الهيئات الدولية لاستمرار عمل هذه الأنظمة. قد يتضمن هذا نظامًا يتطلب من كل شريحة من شرائح الذكاء الاصطناعي الحصول على توقيعات من منظمات عالمية كبرى مرة واحدة في الأسبوع قبل أن يُسمح لها بالعمل. يمكن تأمين هذه العملية باستخدام تقنية البلوك تشين، مما يضمن أنه لا يمكن لأحد تجاوز النظام.

لماذا يهمك هذا؟

  1. الذكاء الاصطناعي الخارق: هو نوع من الذكاء الاصطناعي الذي يتفوق على أعظم العقول البشرية في جميع المجالات. إذا لم نكن حذرين، قد يصبح قويًا جدًا وسريعًا لدرجة أننا لن نتمكن من التحكم فيه. اقتراح بوترين هو وسيلة لإبطاء هذا التطور قبل أن يصبح خطيرًا.
  2. مخاطر الذكاء الاصطناعي غير المُراقب: ليس بوترين وحده من يشعر بالقلق حيال مستقبل الذكاء الاصطناعي. أكثر من 2600 خبير تقني وقعوا على رسالة في مارس 2023 يطالبون بتوقف تطوير الذكاء الاصطناعي بسبب المخاطر التي يشكلها على المجتمع. هذه القضية ليست مجرد فكرة نظرية—إنها أصبحت حقيقة يجب التعامل معها.
  3. شراء الوقت للبشرية: هدف بوترين ليس إيقاف الذكاء الاصطناعي إلى الأبد، بل إبطاء الأمور لكي نتمكن من الاستعداد للمخاطر التي ترافق الذكاء الاصطناعي الخارق. مع الاحتياطات المناسبة، يمكن تطوير الذكاء الاصطناعي بشكل آمن.

النقاط الأساسية التي يجب أن تتذكرها:

  • الذكاء الاصطناعي الخارق: هو الذكاء الاصطناعي الذي يتفوق على الإنسان في جميع المجالات.
  • التوقف الناعم: توقف مؤقت على مستوى العالم في تطوير أجهزة الذكاء الاصطناعي لإبطاء التقدم.
  • d/acc (التسارع الدفاعي): فكرة بوترين في تطوير التكنولوجيا بحذر، على عكس التسارع الفعّال الذي يدعو إلى التقدم التكنولوجي غير المقيد.
  • البلوك تشين في الذكاء الاصطناعي: إمكانية استخدام البلوك تشين لضمان المساءلة في تطوير الذكاء الاصطناعي.

لماذا يجب أن تهتم بهذا؟ إذا كنت مهتمًا بالتكنولوجيا، خصوصًا في الذكاء الاصطناعي والعملات المشفرة، فإن هذا المفهوم يرتبط مباشرة بكيفية استخدام التكنولوجيا المتقدمة بشكل مسؤول. إذا أصبح الذكاء الاصطناعي قوة هائلة، فقد يغير كل شيء—من أسواق العمل إلى هيكل المجتمع نفسه. فهم هذه المناقشات والأفكار سيساعدك على أن تكون جزءًا من الحوار عندما يتقدم الذكاء الاصطناعي في المستقبل.

باختصار، تحذير بوترين واقتراحه قد يشكلان مستقبل الذكاء الاصطناعي وفي النهاية مستقبل عالمنا. من خلال الاطلاع على هذه الأفكار الآن، لا تواكب فقط اتجاهات التكنولوجيا—بل تستعد للمستقبل الذي سنواجهه جميعًا معًا.