توقعات لتطور الذكاء الاصطناعي في عام 2023

كما كتب مؤلف ناجح ذات مرة، «الليل مظلم ومليء بالرعب، النهار مشرق وجميل ومليء بالأمل». إنها تناقضات الذكاء الاصطناعي، والتي مثل كل تكنولوجيا لها إيجابياتها وسلبياتها.

أدت نماذج تكوين الفن مثل Stable Diffusion، على سبيل المثال، إلى إنتاج مذهل من الإبداع وتشغيل التطبيقات وحتى نماذج أعمال جديدة تمامًا. من ناحية أخرى، تتيح طبيعتها مفتوحة المصدر للمنتجين السيئين استخدامها لإنشاء أعمال مزيفة على نطاق واسع – كل ذلك بينما يحتج الفنانون على أن النماذج تم تمرينها من خلال تغذيتها بأعمالهم الفنية.

ماذا يوجد على سطح سفينة الذكاء الاصطناعي في عام 2023؟ هل سيكبح التنظيم أسوأ ما يجلبه الذكاء الاصطناعي، أم أن البوابات مفتوحة؟ هل ستظهر أشكال جديدة تحولية قوية من الذكاء الاصطناعي، على غرار ChatGPT، مما يعطل الصناعات التي كانت تعتقد ذات يوم أنها آمنة من الأتمتة؟

توقع المزيد من تطبيقات الذكاء الاصطناعي المولدة للفن والمثيرة للجدل

مع نجاح Lensa، تطبيق السيلفي الذي يعمل بالذكاء الاصطناعي من Prisma Labs والذي انتشر على نطاق واسع، يمكنك توقع الكثير من تطبيقات مشابهة على هذا المنوال. وتوقع أن يكونوا قادرين أيضًا على الخداع لإنشاء صور مزيفة.

قال ماكسيميليان جانتز، كبير الباحثين السياسيين في مؤسسة موزيلا، إنه يتوقع أن يؤدي دمج الذكاء الاصطناعي التكويني في التكنولوجيا الاستهلاكية إلى تضخيم تأثيرات مثل هذه الأنظمة، سواء الجيدة أو السيئة.

تتم تغذية مليارات الصور من الإنترنت في تطبيقات الذكاء الاصطناعي حتى «تتعلم» ربط كلمات ومفاهيم بصور معينة، وتكوين النصوص بشكل روتيني بسهولة لتبني وجهات نظر مسيئة أو إنتاج محتوى مضلل.

يتفق مايك كوك، عضو مجموعة البحث المفتوحة Knives and Paintbrushes، مع Gahntz على أن الذكاء الاصطناعي التكويني سيستمر في إثبات قوة التغيير الرئيسية – وإثارة المشكلات -. لكنه يعتقد أن عام 2023 يجب أن يكون العام الذي «يضع فيه الذكاء الاصطناعي أمواله في المكان الصحيح».

Prompt by TechCrunch، نموذج by Stability AI، تم إنشاؤه في الأداة المجانية Dream Studio.

“لا يكفي تحفيز مجتمع من المتخصصين [لإنشاء تقنية جديدة] – حتى تصبح التكنولوجيا جزءًا متجزأً من حياتنا، هي إنما أن يجني شخصًا ما الكثير من المال، أو يكون لها تأثير ذي مغزى على الحياة اليومية لعامة الناس. «لذلك أتوقع أننا سنرى محاولة جديدة لجعل الذكاء الاصطناعي التكويني يحقق بالفعل أحد هذين الأمرين، بنجاح متباين».

يقود الفنانون الجهود المبذولة لإلغاء الاشتراك في مجموعات البيانات

أصدرت DeviantArt تطبيقاً فنيًا للذكاء الاصطناعي مبنيًا على Stable Diffusion وتم تمرينه على الأعمال الفنية في مجتمع DeviantArt. قوبل التطبيق برفض صاخب من مستخدمي DeviantArt القدامى، الذين انتقدوا افتقار المنصة إلى الشفافية في استخدام فنهم الذي تم تحميله لتدريب النظام.

يقول منشئو الأنظمة الأكثر شيوعًا – OpenAI و Stability AI – إنهم اتخذوا خطوات للحد من كمية المحتوى الضار الذي تنتجه أنظمتهم. ولكن من الواضح أن هناك الكثير من العمل الذي يتعين القيام به.

قال Gahntz: «تتطلب مجموعات البيانات تنظيمًا نشطًا لمعالجة هذه المشكلات ويجب أن تخضع لتدقيق كبير، بما في ذلك من المجتمعات التي تميل إلى الحصول على القشة في النهاية»، مقارنًا العملية بالجدل المستمر حول تعديل المحتوى في وسائل التواصل الاجتماعي.

خطوة نحو حفظ حقوق الملكية

خضع الذكاء الاصطناعي للاستقرار بسبب الضغط العام مؤخرًا، مما يشير إلى أنه سيسمح للفنانين بالانسحاب من مجموعة البيانات المستخدمة لتدريب الجيل التالي من نموذج Stability Ai. من خلال موقع الويب HaveIBeenTrained.com، سيتمكن أصحاب الحق من طلب إلغاء الاشتراك قبل بدء التدريب في غضون أسابيع قليلة.

في الوقت نفسه لا تقدم OpenAI آلية لإلغاء الاشتراك، وبدلاً من ذلك تفضل الشراكة مع منظمات مثل Shutterstock لترخيص أجزاء من معارض الصور الخاصة بهم. ولكن نظرًا للرياح القانونية والدعاية المطلقة المعاكسة التي تواجهها جنبًا إلى جنب مع الذكاء الاصطناعي، فمن المحتمل أن تكون مسألة وقت فقط قبل أن تحذو حذوها.

وفي النهاية قد تفرض المحاكم يدها. في الولايات المتحدة، تمت رفع دعوى قضائية جماعية ضد Microsoft و GitHub و OpenAI تتهمهم بانتهاك قانون حقوق الطبع والنشر من خلال السماح لـ Copilot، خدمة GitHub التي تقترح بذكاء خطوط التشفير، وتجديد أقسام التشفير المرخصة دون الحصول على رخصة.

ربما بسبب هذه التحديات القانونية، أضاف GitHub مؤخرًا إعدادات لمنع ظهور التشفير العام في اقتراحات وخطط Copilot لتقديم ميزة ستشير إلى مصدر اقتراحات التشفير. لكنها إجراءات غير كاملة. في حالة واحدة على الأقل، تسبب إعداد المرشح في قيام كوبيلوت بإصدار أجزاء كبيرة من الرموز المحمية بحقوق الطبع والنشر، بما في ذلك جميع نصوص الإسناد والترخيص.

توقع أن ترى الانتقادات تتصاعد في العام المقبل، لا سيما وأن المملكة المتحدة تفكر في الأحكام التي من شأنها إزالة شرط استخدام الأنظمة المدربة للبيانات العامة بشكل غير تجاري تمامًا.

ستستمر الجهود المفتوحة المصدر واللامركزية في النمو

شهد عام 2022 سيطرة عدد قليل من شركات الذكاء الاصطناعي على المسرح، وخاصة OpenAI و Stability AI. لكن البندول قد يتأرجح مرة أخرى نحو المصدر المفتوح في عام 2023 حيث تتجاوز القدرة على بناء أنظمة جديدة «مختبرات الذكاء الاصطناعي الغنية بالموارد والقوية»، على حد تعبير Gahntz.

وقال إن نهج المجتمع قد يؤدي إلى مزيد من التدقيق في الأنظمة أثناء بنائها ونشرها: «إذا كانت النماذج مفتوحة وإذا كانت مجموعات البيانات مفتوحة، فسيمكن ذلك من إجراء المزيد من الأبحاث الهامة التي أشارت إلى الكثير من العيوب والأضرار المرتبطة بالذكاء الاصطناعي التكويني، وغالبًا ما كان من الصعب جدًا إجراؤها».

نتائج من OpenFold، وهو نظام ذكاء اصطناعي مفتوح المصدر يتنبأ بأشكال البروتينات، مقارنة AlphaFold2 DeepMind.

تشمل الأمثلة على هذه الجهود المرتكزة على المجتمع نماذج لغوية كبيرة من EleutherAI و BigScience، وهو جهد تدعمه شركة Hugging Face الناشئة في الذكاء الاصطناعي. تقوم Stability AI بتمويل عدد من المجتمعات نفسها، مثل Harmonai الذي يركز على جيل الموسيقى و OpenBioML، وهي مجموعة من التجارب في مجال التكنولوجيا الحيوية.

لا تزال الأموال والخبرة مطلوبة لتدريب وتشغيل نماذج الذكاء الاصطناعي المتطورة، لكن الحوسبة اللامركزية قد تتحدى مراكز البيانات التقليدية مع نضوج جهود المصدر المفتوح.

تنمية اللامركزية

اتخذت BigScience خطوة نحو تمكين التنمية اللامركزية من خلال الإصدار الأخير لمشروع Petals مفتوح المصدر. تتيح Petals للأشخاص المساهمة بقوتهم الحاسوبية، على غرار Folding @ home، لتشغيل نماذج لغة الذكاء الاصطناعي الكبيرة التي تتطلب عادةً وحدة معالجة رسومات وخوادم متطورة.

قالت تشاندرا بهاجافاتولا، عالمة الأبحاث في معهد ألين للذكاء الاصطناعي، عبر البريد الإلكتروني إن نماذج التكوين الحديثة باهظة الثمن من الناحية الحسابية للتدريب والتشغيل.، إن بعض التقديرات تشير إلى أن الإنفاق اليومي على ChatGPT يصل إلى حوالي 3 ملايين دولار. «لجعل هذا الأمر قابلاً للتطبيق تجاريًا وقابل للوصول على نطاق واسع، لابد من معالجة هذا التكلفة».

يشير تشاندرا، مع ذلك، إلى أن المعامل الكبيرة ستستمر في امتلاك مزايا تنافسية طالما ظلت الأساليب والبيانات مملوكة. في مثال حديث، أصدر OpenAI Point-E، وهو نموذج يمكنه إنشاء كائنات ثلاثية الأبعاد بإعطاء نص موجه. ولكن بينما فتحت OpenAI النموذج، فإنها لم تكشف عن مصادر بيانات تدريب Point-E.

النقطة-E تولد السحب النقطية OpenAI

قال تشاندرا: «أعتقد أن جهود المصدر المفتوح وجهود اللامركزية جديرة بالاهتمام تمامًا وهي لصالح عدد أكبر من الباحثين والممارسين والمستخدمين»، «ومع ذلك، على الرغم من كونها مفتوحة المصدر، إلا أن أفضل النماذج لا يزال يتعذر الوصول إليها من قبل عدد كبير من الباحثين والممارسين بسبب قيود مواردهم».

تراجع شركات الذكاء الاصطناعي عن اللوائح الواردة

قد تغير اللوائح مثل قانون الذكاء الاصطناعي للاتحاد الأوروبي كيفية تطوير الشركات ونشر أنظمة الذكاء الاصطناعي. وكذلك يمكن لمزيد من الجهود المحلية، مثل قانون التوظيف في مدينة نيويورك للذكاء الاصطناعي، والذي يتطلب تدقيق الذكاء الاصطناعي والتكنولوجيا القائمة على الخوارزمية للتوظيف أو الترقية لالغاء التحيز قبل استخدامه.

ترى شاندرا أن هذه اللوائح ضرورية، خاصة في ضوء العيوب التقنية الواضحة بشكل متزايد للذكاء الاصطناعي، مثل ميلها إلى نشر معلومات خاطئة من الناحية الواقعية.

“هذا يجعل من الصعب تطبيق الذكاء الاصطناعي التكويني في العديد من المجالات حيث يمكن أن يكون للأخطاء تكاليف عالية جدًا – على سبيل المثال الرعاية الصحية. بالإضافة إلى ذلك، فإن سهولة تكوين معلومات غير صحيحة تخلق تحديات تحيط بالمعلومات المضللة “. «[ومع ذلك] تتخذ أنظمة الذكاء الاصطناعي بالفعل قرارات محملة بآثار أخلاقية».

لن يؤدي العام المقبل إلا إلى لمحاولة التنظيم، على الرغم من ذلك – توقع المزيد من الجدل حول اللوائح وقضايا المحكمة قبل تغريم أي شخص أو توجيه الاتهام إليه. لكن قد لا تزال الشركات تتنافس على منصب في الفئات الأكثر فائدة من القوانين القادمة، مثل فئات المخاطر في قانون الذكاء الاصطناعي.

فئات المخاطر في قانون الذكاء الاصطناعي

تقسّم القاعدة المكتوبة حاليًا أنظمة الذكاء الاصطناعي إلى واحدة من أربع فئات مخاطر، لكل منها متطلبات ومستويات مختلفة من التدقيق.

الأنظمة في فئة المخاطر الأعلى، الذكاء الاصطناعي «عالي المخاطر» (على سبيل المثال خوارزميات تسجيل الائتمان وتطبيقات الجراحة الروبوتية)، والأنظمة المتوسطة المخاطر. والتي يجب أن تلبي معايير قانونية وأخلاقية وتقنية معينة قبل السماح لها بدخول السوق الأوروبية.

وفئة المخاطر الأقل، «الحد الأدنى من المخاطر » للذكاء الاصطناعي (على سبيل المثال مرشحات البريد العشوائي، وألعاب الفيديو التي تدعم الذكاء الاصطناعي)، والمعدومة المخاطر فيتم فرض التزامات الشفافية فقط عليها مثل توعية المستخدمين بأنهم يتفاعلون مع نظام ذكاء اصطناعي.

أعرب Os Keyes، طالب دكتوراه في جامعة واشنطن، عن قلقه من أن الشركات ستهدف إلى أدنى مستوى للمخاطر من أجل تقليل مسؤولياتها الخاصة والبقاء تحت الرادار.

وقالوا: «بغض النظر عن هذا القلق، فإن [قانون الذكاء الاصطناعي] هو الشيء الأكثر إيجابية الذي أراه على الطاولة». «ولم أر الكثير من أي شيء خارج الكونجرس».

لكن الاستثمارات ليست شيئًا مؤكدًا

يجادل Gahntz بأنه حتى لو كان نظام الذكاء الاصطناعي يعمل بشكل جيد بما يكفي لمعظم الناس ولكنه ضار للغاية بالبعض، «فإنه لا يزال هناك الكثير من العمل اللازم» قبل أن تجعله الشركة متاحًا على نطاق واسع. “هناك أيضًا دراسة جدوى لكل هذا. إذا كان نموذجك يولد الكثير من الأشياء الفاسدة، فلن يعجب به المستهلكون “. «لكن من الواضح أن هذا يتعلق أيضًا بالإنصاف والعدل».

من غير الواضح ما إذا كانت الشركات ستقنع بهذه الحجة في العام المقبل، لا سيما وأن المستثمرين يبدون حريصين على وضع أموالهم في أي ذكاء اصطناعي واعد.

في خضم الخلافات، جمعت شركة Stability Ai مئة مليون دولار بتقييم يزيد عن مليار دولار من داعمين بارزين بما في ذلك Coatue و Lightspeed Venture Partners. يقال إن قيمة OpenAI تبلغ 20 مليار دولار مع دخولها محادثات متقدمة لجمع المزيد من التمويل من Microsoft. (استثمرت Microsoft سابقًا مليار دولار في OpenAI في عام 2019).

تطبيقات جديدة

خارج شركات القيادة الذاتية Cruise و Wayve و WeRide وشركة الروبوتات MegaRobo، كانت شركات الذكاء الاصطناعي الأفضل أداءً من حيث الأموال التي تم جمعها هذا العام قائمة على البرامج، وفقًا لـ Crunchbase. أغلقت شركة Contentsquare، التي تبيع خدمة تقدم توصيات مدفوعة بالذكاء الاصطناعي لمحتوى الويب، جولة بقيمة 600 مليون دولار في يوليو. وحصلت شركة Uniphore، التي تبيع برامج «لتحليلات المحادثة» (فكر في مقاييس مركز خدمة العملاء) ومساعدي المحادثة، على 400 مليون دولار في فبراير. وفي الوقت نفسه، حصلت Highspot، التي توفر منصتها التي تعمل بالذكاء الاصطناعي لمندوبي المبيعات والمسوقين توصيات في الوقت الفعلي والبيانات، على 248 مليون دولار في يناير.

قد يطارد المستثمرون رهانات أكثر أمانًا مثل أتمتة تحليل شكاوى العملاء أو توليد خيوط المبيعات، حتى لو لم تكن «مثيرة» مثل الذكاء الاصطناعي التكويني. هذا لا يعني أنه لن تكون هناك استثمارات كبيرة تجذب الانتباه، لكنها ستكون مخصصة للاعبين ذوي النفوذ.

المصدر: techcrunch