منطق الصوت ونماذج الذكاء الاصطناعي الرتيبة

نشرت: 2022-03-11

أصبح الذكاء الاصطناعي سريعًا أحد الأصول المذهلة ، حيث حقق مستويات خارقة من الأداء في مجالات مثل التعرف على الصور والجو وحتى البوكر. كثيرون متحمسون لمستقبل الذكاء الاصطناعي والإنسانية. في الوقت نفسه ، هناك شعور عام بأن الذكاء الاصطناعي يعاني من عيب مزعج: يمكن أن يكون الذكاء الاصطناعي في وضعه الحالي غير موثوق به بشكل غير متوقع.

المثال الكلاسيكي هو الخطر! تحدي IBM ، حيث قام Watson ، IBM AI ، بتنظيف اللوحة بسهولة ، فقط لتفويت "Final Jeopardy!" السؤال الذي كان يندرج تحت فئة المدن الأمريكية : "تم تسمية أكبر مطاراتها على اسم بطل الحرب العالمية الثانية ؛ ثاني أكبر معركة في الحرب العالمية الثانية ". أجاب واتسون ، "ما هي تورنتو ؟؟؟؟؟" - علامات الاستفهام الإضافية (والرهان المنخفض) تشير إلى شكها.

لذا ، على الرغم من أن الذكاء الاصطناعي لديه القدرة على أداء يشبه الحكايات الخرافية لفترات طويلة من الزمن - شهور وسنوات وعقود حتى - هناك دائمًا هذا الاحتمال المزعج أنه فجأة ، سوف يحدث خطأ غامض.

أكثر ما يثير قلقنا نحن البشر ليس أن الذكاء الاصطناعي سوف يرتكب خطأ ، ولكن كيف سيكون الخطأ "غير منطقي". في حالة واتسون ، الشخص الذي لا يعرف إجابة السؤال سيحاول "منطقيًا" على الأقل تخمين مدينة أمريكية كبرى. أعتقد أن هذا هو أحد الأسباب الرئيسية لعدم اعتمادنا علنًا للسيارات ذاتية القيادة حتى الآن: حتى لو كانت السيارات ذاتية القيادة أكثر أمانًا من الناحية الإحصائية ، فإننا نخشى أن يكون الذكاء الاصطناعي الأساسي الخاص بها خطأً بشكل غير متوقع بالمعنى المماثل لـ Watson ولكن مع تداعيات أكثر خطورة.

هذا جعلني أتساءل ، هل يمكن لنموذج الذكاء الاصطناعي الصحيح إصلاح هذه المشكلة؟ هل يمكن أن يمتلك الذكاء الاصطناعي المناسب القدرة على اتخاذ قرارات سليمة في اللحظات الحرجة ، حتى عندما لا تتوفر لديه جميع الإجابات؟ سيكون مثل هذا الذكاء الاصطناعي قادرًا على تغيير مسار التكنولوجيا وتمكيننا من مزايا الذكاء الاصطناعي التي تشبه القصص الخيالية ...

أعتقد أن الإجابة على هذه الأسئلة هي نعم. أعتقد أن أخطاء مثل Watson قد يكون من الممكن تجنبها باستخدام نماذج محسّنة وأكثر تقييدًا منطقيًا ، يُطلق على النموذج الأولي منها نماذج التعلم الآلي الرتيبة . دون الخوض في التفاصيل حتى الآن ، باستخدام نموذج الذكاء الاصطناعي الرتيب المناسب:

  • ستكون السيارة ذاتية القيادة أكثر أمانًا ، حيث يكفي دائمًا اكتشاف أصغر قدر من الإشارة البشرية لتفعيل بروتوكول أمان حتى في وجود كمية كبيرة من الإشارات الأخرى.
  • ستكون أنظمة التعلم الآلي (ML) أكثر قوة في مواجهة الهجمات العدائية والمواقف غير المتوقعة.
  • سيكون أداء ML أكثر منطقية ومفهومًا من الناحية الإنسانية.

أعتقد أننا ننتقل من عصر النمو الكبير في القوة الحسابية والخوارزمية للذكاء الاصطناعي إلى عصر البراعة والفعالية والفهم في الذكاء الاصطناعي ، ونماذج التعلم الآلي الرتيبة هي الخطوة الأولى في هذه الرحلة المثيرة. تجعل النماذج أحادية اللون الذكاء الاصطناعي أكثر "منطقية".

ملاحظة المحرر: يتم تشجيع القراء الذين يتطلعون إلى اتخاذ خطوتهم الأولى في فهم أساسيات ML على قراءة مقالتنا التمهيدية عن ML.

نظرية نماذج الذكاء الاصطناعي أحادية اللون

إذن ما هو النموذج الرتيب؟ بشكل فضفاض ، النموذج الرتيب هو نموذج ML يحتوي على مجموعة من الميزات (ميزات رتيبة ) والتي تؤدي زيادتها دائمًا إلى زيادة النموذج في إنتاجه.

تقنيا ...

... هناك مكانان حيث التعريف أعلاه غير دقيق.

أولاً ، الميزات هنا تتزايد بشكل رتيب. يمكن أن يكون لدينا أيضًا ميزات متناقصة بشكل رتيب ، تؤدي زيادتها دائمًا إلى انخفاض في النموذج. يمكن تحويل الاثنين إلى بعضهما البعض ببساطة عن طريق النفي (الضرب في -1).

ثانيًا ، عندما نقول أن الناتج يزداد ، فإننا لا نعني أنه يتزايد بشكل صارم - فنحن نعني أنه لا ينقص ، لأن الناتج يمكن أن يظل كما هو.

في الحياة الواقعية ، تظهر العديد من أزواج المتغيرات علاقات رتيبة. علي سبيل المثال:

  • يتزايد سعر الغاز في الرحلة بشكل رتيب في المسافة المقطوعة.
  • احتمالية الحصول على قرض أكبر مع وجود ائتمان أفضل.
  • يزيد وقت القيادة المتوقع مع زيادة حجم حركة المرور.
  • يزيد العائد مع معدل النقر على الإعلان.

على الرغم من أن هذه العلاقات المنطقية واضحة بما فيه الكفاية ، بالنسبة لنموذج ML الذي يستكمل باستخدام بيانات محدودة ولا توجد معرفة بالمجال ، فقد لا تكون كذلك. في الواقع ، قد يقحمها النموذج بشكل غير صحيح ، مما يؤدي إلى تنبؤات سخيفة وغريبة. تعمل نماذج التعلم الآلي التي تلتقط مثل هذه المعرفة بشكل أفضل في الممارسة (عن طريق تجنب الإفراط في التجهيز) ، وهي أسهل في التصحيح ، وأكثر قابلية للتفسير. في معظم حالات الاستخدام ، يجب استخدام النموذج الرتيب جنبًا إلى جنب مع نموذج عادي ، كجزء من مجموعة من المتعلمين.

أحد الأماكن التي تتألق فيها نماذج الذكاء الاصطناعي الرتيبة حقًا هو المتانة العدائية. النماذج الرتيبة هي نماذج "صلبة" للتعلم الآلي ، مما يعني أنها مقاومة لهجمات الخصومة. المهاجمون القادرون على التعامل مع الميزات غير الرتيبة فقط غير قادرين على التهرب من نموذج الذكاء الاصطناعي الرتيب لأنهم غير قادرين على تغيير تسمية المثال فيما يتعلق بنموذج الذكاء الاصطناعي الرتيب.

حالات الاستخدام لنماذج الذكاء الاصطناعي أحادية اللون

حتى الآن ، كان هذا النقاش نظريًا تمامًا. دعونا نناقش بعض حالات الاستخدام الواقعية.

حالة الاستخدام رقم 1: اكتشاف البرامج الضارة

يجب أن يكون أحد أروع حالات الاستخدام لنماذج الذكاء الاصطناعي الرتيبة هو استخدامها في اكتشاف البرامج الضارة. تم تنفيذ نموذج رتيب كجزء من Windows Defender ، وهو موجود في كل جهاز حديث من أجهزة Windows ، مما يحمي المستخدمين بهدوء من البرامج الضارة.

في أحد السيناريوهات ، انتحل مؤلفو البرامج الضارة صفة الشركات المشروعة المسجلة للاحتيال على سلطات إصدار الشهادات ، ونجحوا في التوقيع رقميًا على برامجهم الضارة بشهادات موثوقة. من المرجح أن يستخدم مصنف البرامج الضارة الساذج توقيع الرمز كميزة وقد يشير إلى أن هذه العينات حميدة.

ولكن ليس الأمر كذلك في حالة نموذج الذكاء الاصطناعي الرتيب الخاص بـ Windows Defender ، والذي لا تمثل ميزاته الرتيبة سوى الميزات التي تشير إلى وجود برامج ضارة. بغض النظر عن مقدار المحتوى "الحميد" الخبيث الذي يضخه مؤلفو البرامج الضارة في برامجهم الضارة ، سيستمر نموذج الذكاء الاصطناعي الرتيب الخاص بـ Windows Defender في التقاط العينة والدفاع عن المستخدمين من التلف.

في مقرري الدراسي ، التعلم الآلي لقراصنة فريق Red Team ، أقوم بتدريس العديد من الأساليب للتهرب من مصنفات البرامج الضارة المستندة إلى ML. تتمثل إحدى التقنيات في حشو عينة خبيثة بمحتوى / ميزات "حميدة" للتهرب من نماذج ML الساذجة. النماذج الرتيبة تقاوم هذا الهجوم وتجبر الجهات الخبيثة على العمل بجهد أكبر إذا كان لديها أي أمل في التهرب من المصنف.

حالة الاستخدام رقم 2: تصفية المحتوى

افترض أن فريقًا يقوم بإنشاء مرشح محتوى تصفح الويب للمكتبات المدرسية. يعد نموذج AI الرتيب مرشحًا رائعًا لاستخدامه هنا لأن المنتدى الذي يحتوي على محتوى غير مناسب قد يحتوي أيضًا على الكثير من المحتوى المقبول.

قد يوازن المصنف الساذج وجود ميزات "مناسبة" مقابل وجود ميزات "غير مناسبة". لكن هذا لن يحدث لأننا لا نريد أن يصل أطفالنا إلى محتوى غير لائق ، حتى لو كان يشكل جزءًا صغيرًا فقط من المحتوى.

استخدام الحالة رقم 3: سيارة ذاتية القيادة AI

تخيل إنشاء خوارزمية سيارة ذاتية القيادة. ينظر إلى الصورة ويرى الضوء الأخضر. كما يرى أحد المشاة. هل يجب أن يزن إشارة كل منهما ضد الآخر؟ بالطبع لا. يكفي وجود أحد المشاة لاتخاذ قرار بإيقاف السيارة. يجب أن يُنظر إلى وجود المشاة على أنه ميزة رتيبة ، ويجب استخدام نموذج ذكاء اصطناعي رتيب في هذا السيناريو.

حالة الاستخدام رقم 4: محركات التوصية

تعد محركات التوصية حالة استخدام رائعة لنماذج الذكاء الاصطناعي الرتيبة. بشكل عام ، قد يكون لديهم العديد من المدخلات حول كل منتج: التصنيف بالنجوم والسعر وعدد المراجعات وما إلى ذلك. مع تساوي جميع المدخلات الأخرى ، مثل تقييمات النجوم والسعر ، نفضل المنتج الذي يحتوي على عدد أكبر من المراجعات. يمكننا فرض مثل هذا المنطق باستخدام نموذج ذكاء اصطناعي رتيب.

حالة الاستخدام رقم 5: تصفية البريد العشوائي والتصيد الاحتيالي

حالة الاستخدام هذه مشابهة لحالة استخدام اكتشاف البرامج الضارة. قد يقوم المستخدمون الضارون بحقن رسائل البريد الإلكتروني العشوائية أو التصيدية الخاصة بهم بعبارات تبدو حميدة لخداع مرشحات البريد العشوائي. سيكون نموذج الذكاء الاصطناعي الرتيب محصنًا ضد ذلك.

التنفيذ والشرح

عندما يتعلق الأمر بالتطبيقات المتاحة مجانًا لنماذج AI أحادية اللون ، تبرز ثلاثة منها كأفضل دعم: XGBoost و LightGBM و TensorFlow Lattice.

أحادي الصوت ML XGBoost تعليمي

تعتبر XGBoost واحدة من أفضل الخوارزميات أداءً على البيانات المنظمة ، بناءً على سنوات من البحث التجريبي والمنافسة. بالإضافة إلى ذلك ، تم تنفيذ الرتابة في XGBoost.

العرض التوضيحي التالي XGBoost التعليمي حول كيفية استخدام نماذج ML أحادية اللون يحتوي على مستودع Python مصاحب.

ابدأ باستيراد بعض المكتبات:

 import random import numpy as np import matplotlib.pyplot as plt %matplotlib inline from sklearn.metrics import confusion_matrix import seaborn as sns sns.set(font_scale=1.4)

السيناريو الذي سنعمل على نمذجه هو تصفية المحتوى أو قاعدة بيانات البرامج الضارة. سيكون لدينا بعض benign_features ، التي تمثل نموذجًا ، على سبيل المثال ، مقدار المحتوى المرتبط بـ "العلم" و "التاريخ" و "الرياضة" أو في حالة البرامج الضارة ، و "توقيع الرمز" و "المؤلفين المعترف بهم".

أيضًا ، سيكون لدينا malicious_features ، أي نموذج ، على سبيل المثال ، مقدار المحتوى المرتبط "بالعنف" و "المخدرات" ، أو في حالة البرامج الضارة ، و "عدد مرات الاتصال بمكتبات التشفير" و "مقياس رقمي لـ تشابه مع عائلة برامج ضارة معروفة ".

سنقوم بنمذجة الموقف عبر نموذج توليدي. نقوم بإنشاء عدد كبير من نقاط البيانات بشكل عشوائي ، حوالي نصف حميدة ونصفها ضارة ، باستخدام الوظيفة:

 def flip(): """Simulates a coin flip.""" return 1 if random.random() < 0.5 else 0

ستنشئ كل نقطة بيانات ميزاتها بشكل عشوائي. سيكون لنقطة البيانات "الحميدة" انحياز أعلى للميزات الحميدة ، في حين أن نقطة البيانات "الخبيثة" سيكون لها تحيز أعلى للسمات الضارة.

سنستخدم التوزيع الثلاثي ، مثل:

 bins = [0.1 * i for i in range(12)] plt.hist([random.triangular(0, 1, 1) for i in range(50000)], bins) 

رسم بياني لتوزيع نقطة البيانات يشبه الدرج. تحتوي معظم المجموعات ، من 0.1 إلى 0.2 ، ومن 0.2 إلى 0.3 ، وما إلى ذلك ، على حوالي 1000 نقطة بيانات أكثر من تلك الموجودة على يسارها. الأول ، من 0 إلى 0.1 ، يبدو أنه يحتوي على حوالي 500.

سنستخدم هذه الوظيفة لالتقاط المنطق أعلاه:

 def generate(): """Samples from the triangular distribution.""" return random.triangular(0, 1, 1)

بعد ذلك ، سننتقل إلى إنشاء مجموعة البيانات الخاصة بنا:

 m = 100000 benign_features = 5 malicious_features = 5 n = benign_features + malicious_features benign = 0 malicious = 1 X = np.zeros((m, n)) y = np.zeros((m)) for i in range(m): vec = np.zeros((n)) y[i] = flip() if y[i] == benign: for j in range(benign_features): vec[j] = generate() for j in range(malicious_features): vec[j + benign_features] = 1 - generate() else: for j in range(benign_features): vec[j] = 1 - generate() for j in range(malicious_features): vec[j + benign_features] = generate() X[i, :] = vec

يحتوي X على ناقلات المعالم التي تم إنشاؤها عشوائيًا ، بينما يحتوي y على التسميات. مشكلة التصنيف هذه ليست تافهة.

العينات النموذجية: حميدة مقابل خبيثة. يظهر كل رسم بياني 10 ميزات (من 0 إلى 9) بقيم على مقياس من 0 إلى 1. في الرسم البياني الحميد ، تكون معظم الميزات أقل من 0.5 ؛ الميزات 6 و 7 أعلى من 0.6 ؛ الميزة 2 تبلغ 0.8 تقريبًا ؛ والميزة 3 تقارب 1.0. في الرسم البياني الخبيث ، 7 من 10 ميزات أعلى من 0.5 ، بما في ذلك الميزات 5 و 6 و 7 و 8.

يمكنك أن ترى أن العينات الحميدة لها وزن أكبر بشكل عام في الميزات القليلة الأولى ، في حين أن العينات الخبيثة لها وزن أكبر بشكل عام في الميزات القليلة الأخيرة.

مع جاهزية البيانات ، دعنا نجري تقسيمًا بسيطًا للاختبار التدريبي:

 from sklearn.model_selection import train_test_split X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2)

سنستخدم وظيفة لإعداد البيانات لاستخدامها مع برنامج XGBoost التعليمي الخاص بنا:

 import xgboost as xgb def prepare_for_XGBoost(X, y): """Converts a numpy X and y dataset into a DMatrix for XGBoost.""" return xgb.DMatrix(X, label=y) dtrain = prepare_for_XGBoost(X_train, y_train) dtest = prepare_for_XGBoost(X_test, y_test) dall = prepare_for_XGBoost(X, y)

الآن ، دعنا نتدرب ونختبر نموذج XGBoost بسيط (غير رتيب) على البيانات. سنقوم بعد ذلك بطباعة مصفوفة الارتباك لرؤية التحليل العددي للأمثلة الإيجابية المصنفة بشكل صحيح ، والأمثلة السلبية المصنفة بشكل صحيح ، والأمثلة الإيجابية المصنفة بشكل غير صحيح ، والأمثلة السلبية المصنفة بشكل غير صحيح.

 params = {"n_jobs": -1, "tree_method": "hist"} model_no_constraints = xgb.train(params=params, dtrain=dtrain) CM = predict_with_XGBoost_and_return_confusion_matrix( model_no_constraints, dtrain, y_train ) plt.figure(figsize=(12, 10)) sns.heatmap(CM / np.sum(CM), annot=True, fmt=".2%", cmap="Blues") plt.ylabel("True Label") plt.xlabel("Predicted Label") plt.title("Unconstrained model's training confusion matrix") plt.show() print() CM = predict_with_XGBoost_and_return_confusion_matrix( model_no_constraints, dtest, y_test ) plt.figure(figsize=(12, 10)) sns.heatmap(CM / np.sum(CM), annot=True, fmt=".2%", cmap="Blues") plt.ylabel("True Label") plt.xlabel("Predicted Label") plt.title("Unconstrained model's testing confusion matrix") plt.show() model_no_constraints = xgb.train(params=params, dtrain=dall) 

مصفوفة ارتباك تدريب النموذج غير المقيد ، رقعة شطرنج ثنائية. يُطلق على المحور Y اسم "True Label" ، مع وجود صفر في الأعلى وواحد في الأسفل. يُطلق على المحور X اسم "التسمية المتوقعة" ، مع وجود صفر على اليسار وواحد على اليمين. يتدرج مقياس اللون من الأبيض عند الصفر إلى الأزرق الداكن عند 0.5. المربعات العلوية اليسرى والسفلية اليمنى زرقاء داكنة بنسبة 49.29٪ و 48.89٪ على التوالي. المربعان الآخران قريبان من الأبيض ، كلاهما عند 0.91٪. إلى اليمين يوجد مخطط مشابه جدًا ولكن للاختبار بدلاً من التدريب ، بترتيب القراءة 49.33٪ و 1.25٪ و 1.20٪ و 48.23٪.

بالنظر إلى النتائج ، يمكننا أن نرى أنه لا يوجد فرط كبير في التجهيز. سنقارن هذه النتائج بنتائج النماذج الرتيبة.

تحقيقا لهذه الغاية ، دعونا ندرب ونختبر نموذج XGBoost رتيب. الصيغة التي نمررها في القيود الرتيبة هي تسلسل ( f 0 ، f 1 ، ... ، f N ) ، حيث تكون كل f i واحدة من -1 ، 0 أو 1 ، اعتمادًا على ما إذا كنا نريد أن تكون الميزة i رتيبة متناقص ، غير مقيد ، أو متزايد بشكل رتيب ، على التوالي. في الحالة التي نحن بصددها ، نحدد الميزات الخبيثة لزيادة رتابة.

 params_constrained = params.copy() monotone_constraints = ( "(" + ",".join([str(0) for m in range(benign_features)]) + "," + ",".join([str(1) for m in range(malicious_features)]) + ")" ) print("Monotone constraints enforced are:") print(monotone_constraints) params_constrained["monotone_constraints"] = monotone_constraints model_monotonic = xgb.train(params=params_constrained, dtrain=dtrain) CM = predict_with_XGBoost_and_return_confusion_matrix(model_monotonic, dtrain, y_train) plt.figure(figsize=(12, 10)) sns.heatmap(CM / np.sum(CM), annot=True, fmt=".2%", cmap="Blues") plt.ylabel("True Label") plt.xlabel("Predicted Label") plt.title("Monotonic model's training confusion matrix") plt.show() print() CM = predict_with_XGBoost_and_return_confusion_matrix(model_monotonic, dtest, y_test) plt.figure(figsize=(12, 10)) sns.heatmap(CM / np.sum(CM), annot=True, fmt=".2%", cmap="Blues") plt.ylabel("True Label") plt.xlabel("Predicted Label") plt.title("Monotonic model's testing confusion matrix") plt.show() model_monotonic = xgb.train(params=params_constrained, dtrain=dall) 

مصفوفة الارتباك التدريبي لنموذج الذكاء الاصطناعي الرتيب ، رقعة شطرنج ثنائية. يُطلق على المحور Y اسم "True Label" ، مع وجود صفر في الأعلى وواحد في الأسفل. يُطلق على المحور X اسم "التسمية المتوقعة" ، مع وجود صفر على اليسار وواحد على اليمين. يتدرج مقياس اللون من الأبيض عند الصفر إلى الأزرق الداكن عند 0.5. المربعات العلوية اليسرى والسفلية اليمنى زرقاء داكنة بنسبة 49.20٪ و 48.82٪ على التوالي. المربعات العلوية اليمنى والسفلى اليسرى قريبة من اللون الأبيض ، عند 0.99٪ و 0.98٪ على التوالي. يوجد إلى اليمين مخطط مشابه جدًا للاختبار بدلاً من التدريب ، بترتيب القراءة ، 49.32٪ ، 1.26٪ ، 1.22٪ ، 48.20٪.

من الواضح أن أداء النموذج الرتيب هو نفس أداء النموذج غير المقيد.

الآن ، سنقوم بإنشاء مجموعة بيانات معادية. سنأخذ كل العينات الخبيثة و "الأشياء" بميزاتها الحميدة عن طريق تعيينها جميعًا على 1. ثم سنرى كيف يعمل النموذجان جنبًا إلى جنب.

 X_adversarial = X[y == malicious] y_adversarial = len(X_adversarial) * [malicious] for i in range(len(X_adversarial)): vec = X_adversarial[i, :] for j in range(benign_features): vec[j] = 1 X_adversarial[i, :] = vec

دعنا نحول هذه إلى نموذج يتم تناوله بواسطة XGBoost:

 dadv = prepare_for_XGBoost(X_adversarial, y_adversarial)

للخطوة الأخيرة من برنامجنا التعليمي XGBoost ، سنختبر نوعي نماذج التعلم الآلي:

 CM = predict_with_XGBoost_and_return_confusion_matrix( model_no_constraints, dadv, y_adversarial ) plt.figure(figsize=(12, 10)) sns.heatmap(CM / np.sum(CM), annot=True, fmt=".2%", cmap="Blues") plt.ylabel("True Label") plt.xlabel("Predicted Label") plt.title("Unconstrained model's confusion matrix on adversarial dataset") plt.show()
 CM = predict_with_XGBoost_and_return_confusion_matrix( model_monotonic, dadv, y_adversarial ) plt.figure(figsize=(12, 10)) sns.heatmap(CM / np.sum(CM), annot=True, fmt=".2%", cmap="Blues") plt.ylabel("True Label") plt.xlabel("Predicted Label") plt.title("Monotonic model's confusion matrix on adversarial dataset") plt.show() 

مصفوفات الارتباك التدريبي لنماذج الذكاء الاصطناعي غير المقيدة مقابل الرتابة على نفس مجموعة بيانات الخصومة. كل منها عبارة عن رقعة شطرنج ثنائية. يُطلق على المحور Y اسم "True Label" ، مع وجود صفر في الأعلى وواحد في الأسفل. يُطلق على المحور X اسم "التسمية المتوقعة" ، مع وجود صفر على اليسار وواحد على اليمين. يتدرج مقياس اللون من الأبيض عند صفر إلى الأزرق الداكن عند 1.0. تحتوي الصفوف العلوية للمصفوفتين على 0.00٪ فقط. يقرأ الصف السفلي للمصفوفة اليسرى (غير المقيدة) 99.99٪ و 0.01٪ ، بينما يقرأ الصف السفلي للمصفوفة اليمنى (أحادية اللون) 75.81٪ و 24.19٪.

كما ترى ، كان نموذج الذكاء الاصطناعي الرتيب أكثر قوة بحوالي 2500 مرة في مواجهة الهجمات العدائية.

LightGBM

تتشابه صيغة استخدام الميزات الرتيبة في LightGBM.

TensorFlow شعرية

TensorFlow Lattice هو إطار عمل آخر لمعالجة قيود الرتابة وهو عبارة عن مجموعة من TensorFlow مقدِّرات مسبقة الإنشاء بالإضافة إلى مشغلي TensorFlow لبناء نماذج الشبكة الخاصة بك. المشابك عبارة عن جداول بحث مُقحمة متعددة الأبعاد ، مما يعني أنها نقاط موزعة بالتساوي في الفضاء (مثل الشبكة) ، جنبًا إلى جنب مع قيم الوظائف في هذه النقاط. وفقًا لمدونة Google AI:

"... يتم تدريب قيم جدول البحث لتقليل الخسارة في أمثلة التدريب ، ولكن بالإضافة إلى ذلك ، فإن القيم المجاورة في جدول البحث مقيدة بالزيادة وفقًا للاتجاهات المعينة لمساحة الإدخال ، مما يجعل مخرجات النموذج تزداد في تلك الاتجاهات. الأهم من ذلك ، نظرًا لأنها تقحم بين قيم جدول البحث ، فإن النماذج الشبكية تكون سلسة والتنبؤات محدودة ، مما يساعد على تجنب التنبؤات الكبيرة أو الصغيرة الزائفة في وقت الاختبار. "

يمكن العثور على برامج تعليمية حول كيفية استخدام TensorFlow Lattice هنا.

نماذج الذكاء الاصطناعي الرتيبة والمستقبل

من حماية الأجهزة من الهجمات الخبيثة إلى تقديم توصيات منطقية ومفيدة للمطعم ، أثبتت نماذج الذكاء الاصطناعي الرتيبة أنها نعمة عظيمة للمجتمع وأداة رائعة لإتقانها. النماذج الرتيبة موجودة هنا لتدخلنا في حقبة جديدة من الأمان والبراعة والفهم في الذكاء الاصطناعي. ولذا أقول ، إليكم هنا لنماذج الذكاء الاصطناعي الرتيبة ، وهنا للتقدم.