Date of Award

11-2025

Document Type

Thesis

Degree Name

Master of Science in Information Technology Management

Department

Information Systems and Security

First Advisor

Fady Al Najjar

Abstract

This thesis focused on enhancing the safe use of Large Language Model (LLM) through the innovative use of a Multi-Agent System (MAS). As LLMs like ChatGPT became essential to our everyday interactions, the need to maintain the safe use of these systems increased. This research thoroughly assessed the current security measures in place for LLM, pointed out their limitations and developed new and more effective security strategies. The core of the proposed solution was a MAS designed to ensure that all data processed by LLM met guidelines including Privacy, Confidentiality, and Ethical standards before reaching the user. The system involved multiple agents working together: A Coordinator that handled user queries and an Audit Agent that checked the LLM Agent’s outputs against guidelines. This setup aimed to prevent any misuse of the technology.

In our evaluation, the proposed MAS achieved high accuracy in classifying model outputs as safe or blocked. This demonstrated that an Audit Agent supervising an LLM Agent could effectively reduce unsafe or non-compliant responses. Overall, the system consistently enforced these standards without significantly affecting regular interactions. By using new techniques and adding them to the MAS, this study improved LLM usage beyond previous levels. This approach proved essential as LLM became more widespread. Through this thesis, I proposed a safer digital environment for users of LLM, preventing potential abuse of such systems.

Arabic Abstract


تطوير تدابير الحماية الأمنية في النماذج اللغوية الكبيرة عبر الأنظمة متعدّدة الوكلاء

ركّزت هذه الأطروحة على تعزيز الاستخدام الآمن للنماذج اللغوية الكبيرة (LLMs) من خلال الاستخدام المبتكر لنظامٍ متعدّد الوكلاء (MAS). ومع تحوّل نماذج مثل ChatGPT إلى أدوات أساسية في تفاعلاتنا اليومية، تزايدت الحاجة إلى الحفاظ على الاستخدام الآمن لهذه الأنظمة. قيَّمت هذه الدراسة بدقة تدابير الاستخدام الآمن المعمول بها في النماذج اللغوية الكبيرة، وبيّنت محدودياتها، وطوّرت استراتيجياتٍ أكثر فاعلية. يقوم الحل المقترح على نظام متعدّد الوكلاء صُمّم لضمان التزام كل البيانات التي تعالجها النماذج بإرشادات الخصوصية والسرّية والمعايير الأخلاقية قبل وصولها إلى المستخدم. ويتكوّن النظام من عدة وكلاء يعملون معًا: منسقٍ يتولّى توجيه استفسارات المستخدمين، ووكيلِّ تدقيقٍ يراجع مخرجات وكيل التوليد وفقًا للإرشادات، بهدف منع أي إساءة استخدام للتقنية.

في التقييم التجريبي، حقّق النظام الآمن متعدّد الوكلاء دقّةً مرتفعة في تصنيف مخرجات النموذج إلى «آمن» أو «محجوب». وتُظهر النتائج أن وجود وكيل تدقيق يُشرف على وكيل التوليد يُقلّل بفاعلية من الردود غير الآمنة أو غير المتوافقة. وبصورةٍ عامة، حافظ النظام على هذه المعايير دون تأثيرٍ ملحوظٍ في الاستخدام الطبيعي. ومن خلال إدماج تقنياتٍ جديدة ضمن النظام متعدد الوكلاء، حسّنت هذه الدراسة استخدام النماذج اللغوية الكبيرة إلى ما هو أبعد من المستويات السابقة. وقد ثبت أن هذا النهج ضروري مع اتّساع انتشار هذه النماذج. وتُسهم هذه الأطروحة في إرساء بيئةٍ رقميةٍ أكثر أمانًا لمستخدمي النماذج اللغوية الكبيرة، والحدّ من إمكانية إساءة استخدامها.

COinS