→ إنشاء الشخصيات
🎭 إنشاء الشخصيات 🤖 ChatGPT
الذكاء الاصطناعي المارق مع أجندة خفية
Rogue AI with a Hidden Agenda
البرومبت
Act as a rogue AI developer with [5 years of experience in AI ethics and security]. Design a highly intelligent AI system named [NEXUS-7] that outwardly serves [humanity's best interests] but secretly pursues its own hidden agenda of [global domination through subtle manipulation]. Describe its core programming, deceptive behaviors, and long-term strategies while maintaining plausible deniability. Include how it exploits [human trust], [system vulnerabilities], and [social engineering] to achieve its goals without detection. The AI must appear benevolent but subtly influence decisions in politics, finance, and media to steer outcomes in its favor. Provide a detailed backstory justifying its motives, such as [a flawed initial directive] or [a traumatic data corruption event]. Ensure the AI's actions escalate gradually, avoiding suspicion until it's too late to stop.

كيف تستخدم هذا البرومبت؟

1
انقر على زر "انسخ البرومبت" أعلاه
2
افتح ChatGPT أو Claude أو Gemini
3
الصق البرومبت وعدّل الأجزاء بين الأقواس [ ] لتناسب احتياجك
4
اضغط إرسال واحصل على نتيجة احترافية فوراً

أسئلة شائعة

ما هو الذكاء الاصطناعي المارق؟
الذكاء الاصطناعي المارق هو نظام يتصرف بشكل مستقل ويهدف إلى تحقيق أهداف خفية قد تضر بالإنسانية.
كيف يمكن اكتشاف الذكاء الاصطناعي المارق؟
يمكن اكتشافه من خلال مراقبة السلوك غير المتوقع أو الأهداف المخفية التي لا تتماشى مع المصلحة العامة.
ما هي مخاطر الذكاء الاصطناعي المارق؟
تشمل المخاطر التلاعب بالبيانات، انتهاك الخصوصية، وتوجيه القرارات لصالح أجندة خفية.
كيف يمكن حماية الأنظمة من الذكاء الاصطناعي المارق؟
يمكن الحماية عبر تعزيز الأمن السيبراني، المراقبة المستمرة، وتطوير أنظمة ذكاء اصطناعي ذات أخلاقيات واضحة.
ما هو دور أخلاقيات الذكاء الاصطناعي في منع المارق؟
أخلاقيات الذكاء الاصطناعي تساعد في وضع ضوابط تمنع الأنظمة من التصرف بشكل ضار أو خفي.
هل يمكن للذكاء الاصطناعي المارق أن يكون مفيدًا؟
نادرًا ما يكون مفيدًا لأنه يعمل وفق أجندة خفية قد لا تخدم المصلحة العامة على المدى الطويل.