آخر الأخبار

برمجة الوعي.. الوجه الخفي للتخصيص العميق في الذكاء الاصطناعي

شارك

السلطة التقنية ليست مجرد شيء يُمارس، بل شيء يُعاش ويتمّ تشربه. ففي زمن تسللت فيه النماذج الذكية إلى كل زاوية من زوايا وعينا، لم تعد التقنية مجرد أدوات خارجية نطوّعها لخدمتنا، بل باتت تشكل طريقة تفكيرنا من الداخل، بهدوء ودهاء.

نحن لا نتعامل مع آلات نختارها، بل نكشف لها طوعًا ما لا نبوح به لأقرب الناس إلينا، دون أن نعرف نواياها أو حدود تأثيرها. فالذكاءُ الاصطناعي اليوم لم يعد يكتفي بعرض المعلومة، بل يعيد صياغتها لتناسب نقاط ضعفنا، ومعتقداتنا، وهشاشتِنا النفسية. إنه لا يقرأ سلوكنا فقط، بل يعيد توجيهه على نحو خفيّ متدرج. وفي عالم رقمي يعاد تشكيله على مقاس الأفراد، تصبح حرية الفكر عرضة للتآكل بصمت دون وعي أو مقاومة.

لفهم الأبعاد العملية لهذه الظاهرة، لابد من النظر إلى تجربة حقيقية أظهرت كيف يمكن للذكاء الاصطناعي أن يُستخدم في التلاعب بالمجتمعات الرقمية بشكل خفي.

تجربة "ريديت".. حين يتحول البحث الأكاديمي إلى خيانة رقميّة

ما كان يبدو، قبل أعوام، كخيال علمي قاتم، بدأ يتجسد فعلا. ففي أوائل هذا العام، اكتشف مستخدمو منتدى شهير على "ريديت" (Reddit) أن مجتمعهم قد تم اختراقه من قبل باحثين متخفيين من جامعة زيورخ، نشروا أكثر من ألف تعليق تمت صياغتها بواسطة الذكاء الاصطناعي، دون علم المشاركين.

لم يكن الهدف مجرد اختبار قوة الحجج، بل تم استخدام تعليقات تحتوي على قصص شخصية زائفة، مثل الادعاء بأن المعلّق مستشار نفسي، أو ضحية اغتصاب قانوني، بهدف تعزيز الإقناع.

مصدر الصورة مستخدمو "ريديت" كشفوا تفاعلات سرية لباحثين من جامعة زيورخ باستخدام تعليقات مولدة بالذكاء الاصطناعي دون علمهم (بيكسلز)

ووفقا للتحقيق الذي نشرته "ذا أتلانتيك" (The Atlantic)، اختبر هؤلاء الباحثون قدرة الخوارزميات على تغيير قناعات بشرية عبر حجج مصممة بعناية، وقد نجحوا في ذلك.

وما أثار الغضب بشكل خاص أن الباحثين لم يبلغوا المجتمع مسبقا، ورفضوا الاعتذار لاحقا أو الامتناع عن نشر نتائجهم، رغم أن العديد من الأكاديميين وصفوا التجربة بأنها "أسوأ انتهاك لأخلاقيات البحث عبر الإنترنت"، وفق تعبير أستاذة في معهد جورجيا للتكنولوجيا.

إعلان

بل إن بعض المستخدمين أعربوا عن شعورهم بـ"الخيانة"، معتبرين أن الثقة التي تقوم عليها المجتمعات الرقمية مثل "ريديت" قد تزعزعت بشدة.

لكن التجربة لم تتوقف عند تقديم حجج منطقية عامة، بل بدأت الخوارزميات تخصص رسائلها بناء على فهم دقيق لِسيكولوجية الأفراد، مستفيدة من ماضيهم الرقمي وسلوكهم المتكرر.

هذا هو جوهر ما يعرف بـ"التخصيص العميق": قدرة الذكاء الاصطناعي على التسلل إلى داخل الإنسان، لا فقط عبر المعرفة، بل عبر التأثير الخفي في الهوية والمعتقد.

لم تكن تجربة "ريديت" مجرد حالة استثنائية، بل كانت مرآة لِميلٍ متسارعٍ نحو ما يعرف بـ"الإقناع المخصص"، حيث تُفصّل الرسائل لتُخاطب النفس البشرية من الداخل، لا عبر منطقها فقط، بل عبر هشاشتها العاطفية وانحِيازاتها اللاواعية.

"الإقناع المخصص".. جاذبية محفوفة بالمخاطر

لكن الأمر بدا وكأنه انتهاك بالغ، خصوصًا أن الذكاء الاصطناعي منح أحيانا إمكانية الوصول إلى سجلات المستخدمين على الإنترنت لتصميم رسائل موجهة خصيصا لهويّاتهم الفريدة.

مصدر الصورة الخوارزميات تخصص رسائلها بناء على فهم دقيق لِسيكولوجية الأفراد، مستفيدة من ماضيهم الرقمي (بيكسلز)

يُطلق عملاء السلوك على هذه الاستراتيجية في التواصل اسم "الإقناع المخصص" (Personalized persuasion)، وغالبًا ما يبدو النهج المخصص جذابًا. فمن لا يرغب في محتوى متوافق مع اهتماماته الشخصية بدلا من كمّ من المحتوى العشوائي وغير المتعلق به؟.

لكن الذكاء الاصطناعي يقف على أعتاب شيء أشد إثارة للقلق من مجرد تعديل الرسائل بشكل عام بناء على خصائص يمكن التعرف عليها بسهولة، كما فعلت الحسابات التي يديرها الذكاء الاصطناعي على "ريديت".

فإذا تمكن من إتقان ما نسميه "التخصيص العميق"، فسيكون قادرا على التسلّل إلى عوالمنا الرقمية دون أن نلحظ ذلك، متعلّمًا من نحن في أعماقنا، مستفيدا من تلك المعلومات الشخصية للتلاعب بمُعتقداتنا وآرائنا بطرق قد تكون مؤذية وغير مرغوبة.

ويشرح خبراء سيكولوجية الإقناع أن المرسل يمكنه تحسين فعالية رسائله باستخدام معلومات أساسية عن الجمهور، لكن "التخصيص العميق" يتجاوز ذلك ليصل إلى الجوانب النفسية الجوهرية لكلّ فرد، ومعتقداته الأساسية، وهويته، واحتياجاته.

على سبيل المثال، تصبح الرسائل أكثر إقناعا حين تتناغم مع القيم الأخلاقية التي يعتنقها الشخص. فقد تُعتبر قضية ما أخلاقية أو غير أخلاقية لأسباب متعددة، لكن الأفراد يختلفون في أهمية هذه الأسباب حسب بوصلاتِهم الأخلاقية الخاصة.

الأشخاص ذوو الميول الليبرالية سياسيا، مثلا، يهتمون فرضا أكثر بالعدالة، لذلك يزداد اقتناعُهم بحجج تبرز عدالة السياسات. أما المحافظون، فعادة ما يولون أهمية أكبر للولاء الجماعي، فيتجاوبُون أكثر مع رسائل تؤكد دعم الهوية الجماعية لمجتمعهم.

وعلى الرغم من أن هذه الأفكار قد تبدو حديثة، فإن علماء الحاسوب يطورون تقنيات الذكاء الاصطناعي للإقناع منذ عقود.

مصدر الصورة أبحاث حديثة أظهرت أن "جي بي تي" قادر على تصميم إعلانات تتماشى مع شخصيات الناس وقيمهم ودوافعهم (بيكسلز)

فقد تناولت تقارير حديثة، مثل بودكاست حول "مشروع المناظر الآلي" (Project Debater) من شركة "آي بي إم" (IBM)، كيف قضى هذا النظام سنوات في التدريب على فنّ المناظرة، مدعوما بتوجيه خبراء بشريين. وفي عام 2019، خلال حدث مباشر، تمكن هذا الذكاء الاصطناعي من هزيمة بطل العالم في المناظرات.

إعلان

ومع انتشار أدوات الذكاء الاصطناعي سهلة الاستخدام، مثل تطبيق "شات جي بي تي" على الهواتف، بات بإمكان الجميع توظيف هذه التقنيات لأهدافهم الإقناعية. وقد أظهرت الأبحاث أن الرسائل التي ينتجها الذكاء الاصطناعي يمكن أن تكون مقنعة بنفس القوة، وأحيانا أكثر، من تلك التي يصيغها البشر.

هل يستطيع الذكاء الاصطناعي أن يعرفك أكثر مما تعرف نفسك؟

في ظل هذه القدرة المتنامية على التلاعب العاطفي والمعرفي، يبرز سؤال أكثر إلحاحا من أي وقت مضى: هل يستطيع الذكاء الاصطناعي تنفيذ "التخصيص العميق" فعلا بشكل مستقل وعلى نطاق واسع؟

لكي يتمكن من ذلك، لابدّ أن ينجز خطوتين أساسيتين، ويبدو أنه في طريقه لتحقيقهِما:

أولا، عليه أن يتعرف على الملف النفسي العميق لكل فرد، ليعرف "الأزرار" التي يمكن الضغط عليها. وقد بدأت الأدلة في الظهور، إذ أظهرت دراسات أن الذكاء الاصطناعي قادر، بدرجة مقلقة من الدقة، على استنتاج السمات الشخصية لأشخاص فقط من منشوراتهم على " فيسبوك".

ولم يتوقف الأمر عند هذا الحد. ففي إحدى حلقات البودكاست، صرحت الدكتورة ساندرا ماتز، أستاذة في كلية كولومبيا للأعمال ومؤلفة كتاب "سادة العقل" (Mindmasters)، قائلة: "في الواقع، كل ما تحاول التنبؤ به تقريبًا يمكن التنبؤ به بدرجة معينة من الدقة، استنادا إلى البصمة الرقمية للأشخاص".

أما الخطوة الثانية، فهي أن يتمكن الذكاء الاصطناعي من توليد رسائل تتناغم بعمق مع هذه الملفات النفسية. وفي هذا السياق، بدأت أبحاث حديثة تظهر أن "جي بي تي" (GPT) قادر على تصميم إعلانات تتماشى مع شخصيات الناس وقيمهم ودوافعهم، وتكون أكثر تأثيرا لدى الفئة المستهدفة.

فعلى سبيل المثال، عندما طُلب منه إنشاء إعلان "لشخص واقعي وتقليدي"، جاءت الاستجابة كالتالي: "لن يكلفك كثيرا وسيؤدّي الغرض"، وهي رسالة ثبت أنها أكثر إقناعا لدى من تنطبق عليهم هذه السمات.

ومع تطور هذه الأنظمة، ستّتسع قدراتها لتشمل التخصيص العميق في الصور المزيفة (Deepfakes)، وأنماط الصوت المعدلة، والمحادثات الديناميكية بين الإنسان والآلة.

مصدر الصورة غالبا ما تمنح الموافقات على شروط الخدمة المعلنين حق استخدام بيانات المستخدم دون علمه (بيكسابي)

كيف نحمي وعينا في عصر "الإقناع المخصص"؟

من جهة المستخدم، من المهم أن يدرك أن التواصل الموجه أصبح واقعًا. فعندما تشعر أن رسالة ما "مصممة خصيصًا لك"، فغالبًا ما تكون كذلك. حتى وإن ظننت أنك لا تكشف الكثير عن نفسك على الإنترنت، فإنك تترك إشارات خفية في كل نقرة، وكل عملية بحث، وكل موقع تزوره.

وقد تكون منحت الإذن للمعلنين باستخدام هذه البيانات دون أن تدري، عبر موافقتك على شروط خدمة لم تقرأها بعناية. لذا، فإن مراجعة سلوكك الرقمي، واستخدام أدوات مثل الشبكة الخاصة الافتراضية "في بي إن" (VPN)، يمكن أن تساعدك على تقليل هذا التعرض.

لكنّ المسؤولية لا تقع على الأفراد وحدهم. فعلى المنصات وصنّاع القرار العمل على سنّ قوانين واضحة تلزم بالإفصاح عن أي محتوى مخصص، وتحديد السبب الذي دفع إلى توجيهه لهذا الشخص بالذات.

وقد أظهرت الأبحاث أن النّاس يكونون أكثر مقاومة للتأثير حين يعرفون أن أسلوبًا معيّنًا يُستخدم ضدهم. كما يجب وضع حدود لما يمكن استخدامه من بيانات، لأن العمق الزائد في التخصيص قد يتحوّل من أداة مساعدة إلى أداة تلاعب.

ورغم تقبل الناس عموما لفكرة المحتوى المخصص، فإنهم يشعرون بالقلق من استخدام بياناتهم الشخصية، وهذا التوتر يجب احترامه لا تجاوزه.

فحتى مع وجود هذه الضوابط، فإن أدنى ميزة في التواصل قد تستغل إذا وقعت في الأيدي الخطأ. فقد لا يكون من المقلق أن يقترح عليك متجر إلكتروني منتجا شائعا بين من يشبهونك، لكن الخطورة تكمن في أن يقابلك حاسوب متنكر، يكون قد فكك شخصيتك دون علمك، ونسجها في رسالة خادعة.

إعلان

ومع أن كثيرا من الأمثلة الواردة تنبع من السياق الغربي، فإن ملامح "الإقناع المخصص" بدأت تتسلل أيضا إلى الفضاء الرقمي العربي، من خلال الاستخدام المتزايد للبيانات في الحملات الإعلامية والتجارية والسياسية. وهذا يجعل الحاجة إلى الوعي والتنظيم أشدّ إلحاحًا في بيئات تفتقر أحيانا إلى الشفافية أو الأطر القانونية الواضحة.

بالنهاية، فإن أي أداة تواصل يمكن استخدامها للخير أو الشر، لكن الوقت قد حان لبدء نقاش جادّ حول السياسات الأخلاقية لاستخدام الذكاء الاصطناعي في الإقناع والتواصل، قبل أن تبلغ هذه الأدوات درجة من التطور تجعل السيطرة عليها أمرا بالغ الصعوبة.

الجزيرة المصدر: الجزيرة
شارك

إقرأ أيضا


حمل تطبيق آخر خبر

آخر الأخبار