مع تسارع سباق الذكاء الاصطناعي، قامت ميتا بتوجيه ضربة قوية. كشف عملاق الشبكات الاجتماعية عن SPIRIT-LM، وهو نموذج ذكاء اصطناعي قادر على مزج النص والكلام… وهو مفتوح المصدر! في حين احتل ChatGPT عناوين الصحف لعدة أشهر، خاصةً مع وضع الصوت المتقدم، فإن ميتا لا تنوي التخلف عن الركب. كشفت مجموعة مارك زوكربيرج للتو عن SPIRIT-LM، وهو نموذج لغة متعدد الوسائط جديد يمكن أن يغير قواعد اللعبة.
ما يميزه؟ قدرته على دمج النص والكلام معًا، مما يمهد الطريق لتفاعلات أكثر طبيعية وتعبيرية بين الإنسان والآلة.
ذكاء اصطناعي يفهم مشاعرك:
SPIRIT-LM ليس مجرد روبوت محادثة نصي كما نرى في كل مكان. هذا النموذج متعدد الوسائط يذهب إلى أبعد من ذلك بكثير من خلال الجمع بين فهم اللغة المكتوبة والشفوية. بشكل ملموس، يمكنه تحليل ليس فقط معنى الكلمات، ولكن أيضًا نبرة الصوت، والتنغيم، باختصار، البعد العاطفي الكامل للكلام.
يذكرنا هذا النهج، بشكل غير مفاجئ، بوضع الصوت المتقدم في ChatGPT، الذي تم إطلاقه في سبتمبر 2024. روجت شركة OpenAI آنذاك لقدرة ذكائها الاصطناعي على “فهم المشاعر والاستجابة وفقًا لذلك”. يبدو أن ميتا تتبع خطى منافسها، ولكنها تذهب إلى أبعد من ذلك. لأن القوة الكبيرة الأخرى لـ SPIRIT-LM هي طبيعته مفتوحة المصدر. على عكس نماذج مثل GPT-4، التي تظل طريقة عملها سرية، اختارت ميتا مشاركة ذكائها الاصطناعي بحرية مع المجتمع العلمي. قرار يتناقض مع نهج “الصندوق الأسود” لشركة OpenAI.
يمكن أن يؤدي هذا الانفتاح إلى تسريع التقدم بشكل كبير في مجال الذكاء الاصطناعي للمحادثة. من خلال السماح للباحثين من جميع أنحاء العالم بدراسة SPIRIT-LM وتحسينه، تراهن ميتا على الذكاء الجماعي لتطوير التكنولوجيا بشكل أسرع. إنها أيضًا صفعة لشركة OpenAI ونموذجها GPT، الذي يتعرض طابعه المغلق للانتقاد بشكل متزايد. من خلال فتح شفرتها المصدرية، تضع ميتا نفسها كجهة فاعلة أكثر “أخلاقية” وشفافية في قطاع الذكاء الاصطناعي. حجة قد يكون لها وزن كبير في وقت يشعر فيه المنظمون بالقلق إزاء الانحرافات المحتملة لهذه التقنيات.
نحو عصر جديد من المساعدين الافتراضيين؟
مع SPIRIT-LM، يمكننا بالفعل رؤية ملامح المساعدين الافتراضيين في المستقبل. انتهى عصر أليكسا وردودها القياسية: حل محلها ذكاء اصطناعي قادر على إجراء محادثة حقيقية، مع كل دقة اللغة البشرية. يمكننا بسهولة تخيل التطبيقات في مجال خدمة العملاء، أو التعليم، أو حتى الصحة العقلية.
روبوتات المحادثة القادرة على اكتشاف الضيق في صوت المستخدم وتكييف ردها وفقًا لذلك، لم يعد هذا خيالًا علميًا! بالطبع، تثير هذه التكنولوجيا أيضًا مجموعة من الأسئلة الأخلاقية. ذكاء اصطناعي قادر على التلاعب بالمشاعر، هذا أمر مخيف بعض الشيء. يجب أن نكون حذرين بشأن الضمانات الموضوعة لتجنب الانحرافات.