رغم كثرة الشكاوى من استبدال الذكاء الاصطناعي للمهارات البشرية، فهناك جانبًا آخر؛ فقد أجبر صعود الذكاء الاصطناعي البشر على تطوير مهارات جديدة، لا سيما القدرة على تمييز مخرجات الذكاء الاصطناعي المفيدة من تلك الخاطئة والمضللة.
خلال العامين الماضيين، أتقن كثيرون هذه المهارة، وتعلموا كيفية الاستفادة القصوى من القيود العديدة التي يواجهونها مع هذا الكم الهائل من أنظمة الذكاء الاصطناعي.
وبينما تدرك الشركات التي تطور هذه الأدوات الذكية هذه القيود، يبدو أن إحداها تُبالغ قليلًا في الجانب القانوني، إذ لاحظ مستخدمو المساعد الذكي " Copilot" التابع لشركة مايكروسوفت بعض العبارات المثيرة للقلق في شروط الخدمة، بحسب تقرير لموقع "Tom's Hardware" المتخصص في أخبار التكنولوجيا، اطلعت عليه "العربية Business".
تُصدر جميع الشركات الكبرى إخلاء مسؤولية بشأن دقة وصحة مخرجات أنظمة الذكاء الاصطناعي التابعة لها، محاولةً الترويج لمزايا منتجاتها مع الإقرار في الوقت نفسه بقيودها.
لكن يبدو أن "مايكروسوفت" مضت إلى ما هو أبعد من مجرد إخلاء المسؤولية المعتاد خاصة بالنظر إلى الخدمة التي تقدمها.
وفي شروط استخدام "Copilot" قالت "مايكروسوفت" إن "Copilot مخصص لأغراض الترفيه فقط". ويُعتبر استخدام "فقط" أمرًا صادمًا بعض الشيء خاصة لعملاء "مايكروسوفت" من الشركات.
وتمضي الشركة قائلة في شروط الاستخدام: "قد يرتكب أخطاء، وقد لا يعمل كما هو مقصود. لا تعتمد على Copilot للحصول على نصائح مهمة. استخدم Copilot على مسؤوليتك الخاصة".
وهذه العبارة تبدو إلى حد كبير متماشية مع التحذيرات التي تكتبها شركات الذكاء الاصطناعي الأخرى، مثل كن حذرًا وتحقق من صحة أي مخرجات للذكاء الاصطناعي قبل اتخاذ أي إجراء.
لكن تحذير "مايكروسوفت" يبدو مثيرًا للسخرية، بالنظر إلى حرص الشركة على استخدام "Copilot" من قِبل الشركات ودمجها له في نظام التشغيل ويندوز 11.
المصدر:
العربيّة