Machine Learning

  • Plot Confusion Matrix in R

    لعرض مصفوفة الالتباس (Confusion Matrix) في R باستخدام ggplot2، يمكنك استخدام الدالة geom_tile() لرسم مربعات اللون الملونة التي تمثل قيم المصفوفة. يمكنك أيضًا استخدام facet_grid() أو facet_wrap() لتقسيم الرسم البياني إلى لوحات فرعية تمثل الطرق المختلفة.

    قم بتجميع البيانات الخاصة بالطرق المختلفة وقم بإنشاء الرسم البياني كما يلي:

    R
    library(ggplot2) # بيانات المصفوفة لكل طريقة dframe <- structure(list(label = structure(c(4L, 2L, 1L, 3L, 4L, 2L, 1L, 3L), .Label = c("fn", "fp", "tn", "tp"), class = "factor"), value = c(9, 0, 3, 1716, 6, 3, 6, 1713), method = structure(c(1L, 1L, 1L, 1L, 2L, 2L, 2L, 2L), .Label = c("method1", "method2"), class = "factor")), .Names = c("label", "value", "method"), row.names = c(NA, -8L), class = "data.frame") # إنشاء الرسم البياني ggplot(dframe, aes(x = label, y = method, fill = value)) + geom_tile(color = "white") + scale_fill_gradient(low = "white", high = "steelblue") + labs(x = "Actual", y = "Method", fill = "Value") + theme_minimal() + theme(axis.text.x = element_text(angle = 45, hjust = 1)) + facet_wrap(~ method, scales = "free_y")

    تُظهر هذه الشفرة البرمجية مصفوفة الالتباس بالألوان حيث يُظهر لون كل خلية قيمتها. تستخدم scale_fill_gradient() لتحديد مدى التدرج للألوان، وfacet_wrap() لتقسيم الرسم البياني إلى لوحات فرعية لكل طريقة.

    المزيد من المعلومات

    بالطبع! يُستخدم تمثيل البيانات بواسطة مصفوفة الالتباس (Confusion Matrix) في مجالات عديدة مثل تقييم أداء نماذج التصنيف في تعلم الآلة وتقييم النظم الذكية. تعتبر المصفوفة مفيدة لفهم أداء النموذج من حيث عدد النتائج الصحيحة والخاطئة التي يتنبأ بها النموذج.

    تتكون مصفوفة الالتباس من أربع خلايا رئيسية:

    1. True Positives (TP): عدد العينات التي تم تصنيفها بشكل صحيح كإيجابيات.
    2. False Positives (FP): عدد العينات التي تم تصنيفها بشكل غير صحيح كإيجابيات.
    3. True Negatives (TN): عدد العينات التي تم تصنيفها بشكل صحيح كسلبيات.
    4. False Negatives (FN): عدد العينات التي تم تصنيفها بشكل غير صحيح كسلبيات.

    من خلال تحليل مصفوفة الالتباس، يمكننا حساب عدة مقاييس لأداء النموذج مثل الدقة (Accuracy)، الاستدعاء (Recall)، الدقة الإيجابية (Precision)، ومعدل الخطأ النوعي (False Positive Rate).

    الدقة (Accuracy) تُعرف بنسبة العينات الصحيحة (TP و TN) من إجمالي العينات. الاستدعاء (Recall) هو نسبة العينات الإيجابية الصحيحة (TP) من مجموع العينات الإيجابية الحقيقية (TP و FN). الدقة الإيجابية (Precision) هي نسبة العينات الإيجابية الصحيحة (TP) من مجموع العينات المصنفة كإيجابيات (TP و FP). أما معدل الخطأ النوعي (False Positive Rate) فهو نسبة العينات السلبية الخاطئة (FP) من مجموع العينات السلبية الحقيقية (TN و FP).

    إذا كان لديك أي أسئلة أو استفسارات إضافية، فلا تتردد في طرحها!

  • How to Choose the Best TensorFlow Optimizer

    في عالم تدريب النماذج باستخدام TensorFlow، تواجه العديد من المطورين تحدي اختيار الأمثل بين العديد من الخوارزميات المتاحة لتحسين النماذج، والتي تعرف باسم “الأوبتيمايزرز”. تعتبر هذه الأوبتيمايزرز جزءًا أساسيًا من عملية تدريب النماذج العميقة، حيث تهدف إلى تحسين أداء النموذج من خلال تعديل وتحسين الوزن والمعاملات.

    يبدأ الأمر بالتعرف على نوع النموذج الذي تقوم بتدريبه وفهم الخصائص الفريدة لدوال الخسارة التي قد تكون تُستخدم في مهمتك الخاصة. هناك تنوع كبير في أوبتيمايزرز TensorFlow، ولذلك يصعب اتخاذ قرار حاسم.

    للمساعدة في هذا السياق، يمكن البحث عن مراجع علمية أو أوراق استعراضية تتناول هذا الموضوع بشكل مفصل. يمكن أن يكون لديك فهم أفضل لأداء الأوبتيمايزرز مع أنواع معينة من وظائف الخسارة.

    على سبيل المثال، يمكنك البحث عن أوراق تقييم الأداء لأوبتيمايزرز مع وظائف الخسارة الشائعة مثل Mean Squared Error (MSE) أو Categorical Crossentropy. هذه الأوراق غالبًا ما تقدم تحليلًا عميقًا لأداء الأوبتيمايزرز في سياقات معينة.

    علاوة على ذلك، يمكنك الاستفادة من تجارب المطورين الآخرين الذين قد قاموا بتدريب نماذج مماثلة. يمكنك طرح السؤال في المجتمعات التقنية عبر الإنترنت، مثل منتديات TensorFlow على GitHub أو Stack Overflow، حيث يمكن أن يشارك المطورون تجاربهم واقتراحاتهم بناءً على سياق محدد.

    من الجيد أيضًا تجربة أكثر من أوبتيمايزر للنموذج الخاص بك وقياس أدائه في مجموعة من البيانات الاختبار. قد تكون تجارب الأداء الفعلية هي الطريقة الأفضل لفهم كيف يتفاعل كل أوبتيمايزر مع نموذجك الخاص.

    باختصار، عملية اختيار الأوبتيمايزر المثلى تعتمد على فهم دقيق لمتطلبات مشروعك والتجارب الفعلية على الأرض. يجب أن تكون هذه الخطوات الأساسية مساعدة في توجيهك نحو اتخاذ القرار الأمثل في هذا السياق المعقد.

    المزيد من المعلومات

    إضافة إلى النقاط المذكورة أعلاه، يمكن تقسيم أوبتيمايزرز TensorFlow إلى فئات رئيسية بناءً على خصائصها وطريقة عملها، مما يمكن أن يفيد في اتخاذ قرار مستنير:

    1. أوبتيمايزرز قائمة على المعادلات:

      • GradientDescentOptimizer: يعتبر هذا الأمثل للمبتدئين ويستخدم الانحدار البسيط.
      • AdamOptimizer: يجمع بين فوائد مختلف أساليب الأمثلة ويعمل جيدًا في العديد من الحالات.
      • AdagradOptimizer وRMSPropOptimizer: يركزان على التكيف مع معدلات التعلم لكل معامل.
    2. أوبتيمايزرز قائمة على الطاقة:

      • FTRL: يستخدم لتحسين النماذج ذات المتغيرات الكبيرة.
    3. أوبتيمايزرز خاصة بالشبكات العصبية:

      • Nadam: مزيج بين Adam و NAG (Nesterov Accelerated Gradient).
      • Adadelta: يتغلب على بعض مشاكل Adagrad بضبط معدلات التعلم.
    4. أوبتيمايزرز متقدمة:

      • ProximalAdagradOptimizer وProximalGradientDescentOptimizer: يضيفان عناصر الضغط لتحسين التنظيم.

    يجب أن يتم اختيار الأوبتيمايزر بناءً على النموذج ومتطلبات المهمة الخاصة بك. قد تكون هناك حالات حيث يعمل أوبتيمايزر بشكل أفضل لنوع معين من الشبكات أو الوظائف. يُفضل أيضًا تجربة مجموعة متنوعة من الأوبتيمايزرز للتحقق من أدائها الفعلي على بيانات التدريب والاختبار.

  • تحليل أخطاء Illegal Instruction في برنامج الشبكة العصبية

    الخطأ الذي تواجهه “Illegal instruction (core dumped)” يشير عمومًا إلى أن هناك تعليمة غير قانونية تم استدعاؤها خلال تشغيل برنامجك. من النظر إلى الشيفرة المرفقة، يمكن أن يكون الخطأ ناجمًا عن عدة أمور محتملة.

    أولاً وقبل كل شيء، يجب عليك التحقق من أن المتغيرات والمصفوفات التي تقوم بالوصول إليها في كل تكرار من الحلقات معرفة ومبدأة بشكل صحيح. يجب أن تكون أحجام المصفوفات متناسبة مع الحدود المحددة، ويجب أن تتأكد من عدم تجاوز حدود المصفوفات.

    ثانيًا، يفيد إضافة آلية لتسجيل الخطأ لمعرفة النقطة الدقيقة التي تحدث فيها الخطأ. يمكنك استخدام أدوات مثل gdb لتحليل النواة (core dump) وفهم المزيد حول الخطأ.

    أيضًا، تأكد من أن المتغيرات والمصفوفات التي تقوم بالوصول إليها ليست خارج نطاق حجم الذاكرة المخصصة لبرنامجك.

    أخيرًا، قد تكون هناك مشكلة في الحلقة الرئيسية التي تقوم بتدريب الشبكة العصبية. يفيد فحص الشروط في الحلقات والتأكد من عدم وجود أخطاء منطقية تؤدي إلى حدوث الخطأ.

    قد يكون من الصعب تحديد الخطأ بدقة دون إمكانية تحليل مزيد من التفاصيل حول الخطأ الذي يظهر. يفضل استخدام أدوات تصحيح الأخطاء وتسجيل الخطأ لتسهيل تحديد المشكلة.

    إذا لم تظهر أي تطورات، فقد تكون مشكلة في الخطوات الرياضية أو الخوارزميات المستخدمة في الشبكة العصبية. من الممكن أن يكون هناك تعديلات ضرورية في التصميم لتحسين أداء الشبكة العصبية.

    المزيد من المعلومات

    في محاولة لتحديد سبب خطأ “Illegal instruction (core dumped)” الذي تواجهه، يمكن التفكير في العديد من النواحي والتفاصيل المتعلقة بالشيفرة والبنية الخاصة ببرنامجك.

    أولًا، يجب فحص الكود والتأكد من صحة كل مكون فيه. قد يكون هناك استخدام غير صحيح للمؤشرات أو تجاوز لحدود المصفوفات، لذا يجب التحقق من صحة تعريف واستخدام المتغيرات والمصفوفات.

    قد تكون المشكلة في التعليمات البرمجية نفسها، وخاصة عند استخدام الدوال الرياضية مثل exp والتأكد من عدم وجود قيم غير صالحة أو قيم تؤدي إلى تقسيم على صفر.

    يجب أيضًا مراجعة الشيفرة التي تتعامل مع التحكم في الذاكرة، والتأكد من عدم حدوث تجاوز للحدود المحددة للمصفوفات.

    في الشيفرة الحالية، يمكن أن يكون هناك خطأ في المتغير game، حيث يتم استخدامه لتكرار الحلقة الخارجية، ولكنه يستخدم كفهرس للوصول إلى Input داخل الحلقة الداخلية. يجب التحقق من القيم التي يأخذها game والتأكد من عدم تجاوز حدود Input.

    يمكن أيضًا تجريب تقليل حجم البيانات أو تحسين عمليات التصفية للعثور على المشكلة. في بعض الأحيان، قد يكون من المفيد إضافة مزيد من الطباعة التفصيلية لمراقبة قيم المتغيرات والخوارزميات خلال التنفيذ.

    يجب أيضًا التحقق من أن البيئة التي تقوم بتشغيل البرنامج عليها تدعم الأوامر أو التعليمات المستخدمة في الشيفرة. قد يكون هناك اختلافات بين بيئات التطوير والتشغيل.

    في النهاية، يفضل استخدام أدوات تصحيح الأخطاء وتسجيل الأخطاء للتعامل بشكل أفضل مع هذا النوع من المشاكل.

  • فهم الـEpoch والـLoss في Keras: دليل للمبتدئين

    عندما تقوم ببناء نموذج باستخدام مكتبة Keras، فإن الإخراج الذي تراه يمثل تقريراً مفصلاً عن تدريب النموذج. لفهم معنى الـ”epoch” والـ”loss” في Keras، يجب أن نتناول هذا التقرير بشكل أكثر تفصيلاً.

    أولاً وقبل كل شيء، يُعرف الـ”epoch” بأنه دورة كاملة لجميع البيانات التدريبية تمر عبر النموذج. في كل “epoch”، يقوم النموذج بتحديث وزنه بناءً على الفروق بين النتائج التي يتنبأ بها والنتائج الفعلية.

    أما الـ”loss”، فيُمثل هذا المصطلح قيمة دالة الخسارة التي تقيس مقدار الخطأ بين التوقعات التي أنتجها النموذج والقيم الفعلية للبيانات التدريبية. يهدف الهدف من التدريب إلى تقليل قيمة الـ”loss”، أي تقليل الخطأ بحيث يكون أداء النموذج أفضل.

    في التقرير الذي قدمته، يظهر لنا النموذج قيم الـ”loss” لكل “epoch” من 1 إلى 20. يمكن أن نرى كيف تتغير قيمة الـ”loss” بين الـ”epochs”. إذا كانت قيمة الـ”loss” تقل، فإن ذلك يعني أن النموذج يتعلم بشكل أفضل ويصبح أداؤه أفضل. وعلى العكس، إذا زادت قيمة الـ”loss”، فإن ذلك يشير إلى أن النموذج يحتاج إلى ضبط أو تحسين.

    هذه العملية تستمر حتى يتم الوصول إلى عدد محدد من الـ”epochs” أو حتى يتم الوصول إلى أداء يعتبر مقبولاً. يجب مراقبة هذه القيم لضمان أن النموذج يتعلم بشكل جيد وأنه لا يعاني من مشاكل مثل التدريب الزائد أو التدريب الغير كافي.

    إذا كان لديك أي استفسار إضافي حول هذا الموضوع أو حول استخدام Keras بشكل عام، فلا تتردد في طرح المزيد من الأسئلة.

    المزيد من المعلومات

    بالطبع، دعونا نعمق أكثر في مفهومي “epoch” و”loss” ونلقي نظرة على كيفية تحسين أداء النموذج في Keras.

    1. فهم الـ”Epoch” بشكل أعمق:

    الـ”epoch” هو دورة كاملة لتمرير جميع البيانات التدريبية عبر النموذج. في كل “epoch”، يتم تحديث الوزن والتشغيل (الـparameters) للنموذج بناءً على الفروق بين الإخراج المتوقع والإخراج الفعلي. هذا يسمح للنموذج بتعلم التفاصيل والأنماط في البيانات التدريبية.

    من المهم فهم كم “epoch” يكون مناسبًا لمجموعة بيانات محددة. إذا كنت تستخدم عددًا قليلاً جدًا من “epochs”، قد لا يكون للنموذج الوقت الكافي لتعلم الأنماط بشكل كامل. ومن ناحية أخرى، إذا كان العدد كبيرًا جدًا، يمكن أن يؤدي ذلك إلى التدريب الزائد (overfitting).

    2. فهم الـ”Loss” (الخسارة):

    الـ”loss” هو مقياس لمقدار الخطأ بين الإخراج المتوقع والإخراج الفعلي للنموذج. يتم استخدام دوال الخسارة مثل MSE (Mean Squared Error) أو Categorical Crossentropy لقياس هذا الخطأ. هدف التدريب هو تقليل قيمة الـ”loss” لضمان أداء أفضل.

    لتحسين الـ”loss”، يمكن استخدام تقنيات مثل تعديل معدل التعلم (learning rate)، تحسين الخوارزمية، أو إجراء تعديلات على هيكل النموذج. أيضًا، يمكن تقسيم بيانات التدريب إلى مجموعات التدريب والتحقق لتقييم أداء النموذج بين الـ”epochs” وتجنب التدريب الزائد.

    3. ضبط الهيكل النموذجي:

    قد يؤثر تصميم النموذج بشكل كبير على أدائه. يمكنك استخدام طبقات (layers) متعددة، تغيير عدد الوحدات في كل طبقة، أو إضافة طبقات جديدة لتحسين الأداء. يجب تحديد هيكل يناسب نوعية البيانات التي تعمل عليها.

    4. التحسين والتقييم:

    بعد التدريب، يتم تقييم أداء النموذج باستخدام بيانات التحقق. إذا كان الأداء جيدًا على بيانات التحقق، فهذا يشير إلى أن النموذج قادر على التعامل مع بيانات غير معروفة بشكل جيد.

    في الختام، يجب على المستخدمين الجدد في Keras فهم الـ”epoch” والـ”loss” كجزء أساسي من عملية تدريب النموذج. التجربة والتعديل على النموذج يساعد في تحسين أدائه بمرور الوقت.

  • تقنيات جافاسكربت الحديثة في تطوير الويب: من الـ RESTful APIs إلى PWAs

    في عالم تطوير الويب الحديث، تشكل لغة البرمجة JavaScript نقطة حيوية ولا غنى عنها، حيث تسهم بشكل كبير في تحسين تفاعل المستخدم مع صفحات الويب. تعد الانتقالات وجافاسكربت جزءًا أساسيًا من الطابع التكنولوجي الحديث، فهي ليست مجرد لغة برمجة بل هي تحفة هندسية تعمل على تمكين المطورين من إضافة ديناميكية وتفاعلية لا مثيل لها إلى تطبيقات الويب.

    يتميز جافاسكربت بأنها لغة برمجة متعددة الاستخدامات، حيث يمكن استخدامها لتطوير تطبيقات الويب وتطبيقات الخادم على حد سواء. تعتبر جافاسكربت مفتوحة المصدر، وهذا يعني أنها توفر للمطورين مرونة كبيرة في استخدامها وتخصيصها وتكاملها مع أي تقنية أخرى.

    من الناحية العملية، يعتبر فهم مفهوم الانتقالات في جافاسكربت أمرًا أساسيًا. الانتقالات تشير إلى كيفية تداول البرنامج بين مختلف أقسام الشيفرة، وكيفية تحديد ترتيب تنفيذ الأوامر. يُعَدُّ فهم هذا المفهوم أمرًا حاسمًا لضمان كتابة الشيفرة بشكل فعّال وفعّال.

    عند التحدث عن جافاسكربت في سياق تطوير الويب، يتعين التطرق إلى مكتبة jQuery والتي أحدثت ثورة حقيقية في عالم تطوير الويب. jQuery تُعَدُّ مكتبة جافاسكربت متخصصة تسهل على المطورين تنفيذ مهام شائعة مثل التلاعب في الوثائق HTML، والتلاعب في الأحداث، وإرسال الطلبات عبر الشبكة بشكل فعّال.

    لكن لا يمكننا تجاهل الإطارات العملاقة مثل React وVue.js وAngular عند الحديث عن تطوير الويب بواسطة جافاسكربت. هذه الإطارات تعتبر ذات أهمية كبيرة في تبسيط وتسريع عملية بناء وصيانة تطبيقات الويب الحديثة، وتقديم تجارب مستخدم ممتازة.

    في الختام، فإن فهم الانتقالات وجافاسكربت يشكل جزءًا حيويًا من مسيرة أي مطور ويب يسعى إلى تحسين أداء تطبيقاته وجعلها أكثر تفاعلية واستجابة. من خلال الاستفادة من الأدوات والتقنيات الحديثة، يمكن للمطورين تحقيق نتائج رائعة في عالم تطوير الويب المتسارع التطور.

    المزيد من المعلومات

    في إثراء فهمنا لتطوير الويب وجافاسكربت، يتعين علينا التفكير في مفاهيم إضافية تسهم في تشكيل المشهد التقني الحالي. تتنوع هذه المفاهيم من استخدام الـ RESTful APIs إلى تطوير تطبيقات الواجهة الرسومية (GUI) الحديثة والتوجه نحو تقنيات الـ Progressive Web Apps (PWAs).

    في سياق الـ RESTful APIs، يتم التركيز على كيفية تبادل البيانات بين العميل والخادم باستخدام واجهات برمجة التطبيق (APIs) بطريقة مستندة إلى مفاهيم الـ REST. تعتبر هذه الطريقة نموذجية في بناء تطبيقات الويب حيث يتم تحقيق الاتصال بين العميل والخادم عبر طلبات HTTP القائمة على الموارد.

    من جهة أخرى، يلعب تطوير تطبيقات الـ GUI دورًا هامًا في تحسين تجربة المستخدم. تقنيات مثل CSS Grid و Flexbox تسهل تنظيم وتخطيط العناصر على الصفحة بشكل فعّال. علاوة على ذلك، يمكن استخدام مكتبات وإطارات أمامية مثل Bootstrap وTailwind CSS لتسهيل عملية تصميم واجهات المستخدم وجعلها أكثر جاذبية واستجابة.

    فيما يتعلق بتقنيات الـ PWAs، تُعَدُّ هذه التقنية تطورًا هامًا في مجال تطبيقات الويب، حيث تمكّن المطورين من تقديم تجربة استخدام مشابهة لتلك المتاحة في التطبيقات المحمولة. تعتمد الـ PWAs على مفاهيم العمل دون اتصال وتحسينات أخرى لضمان سرعة التحميل والأداء الفعّال.

    لا يمكننا أن نتجاهل أيضًا تأثير تطوير جافاسكربت في مجالات مثل Machine Learning وData Visualization، حيث يتم استخدامها بشكل متزايد لتحليل البيانات وتقديمها بشكل بصري وتفاعلي.

    في الختام، يظهر لنا الاستمرار في استكشاف تقنيات تطوير الويب وجافاسكربت أهمية تواكب التطورات التكنولوجية السريعة وتلبي توقعات المستخدمين الذين يتطلعون إلى تجارب فعّالة ومبتكرة عبر الويب.

  • مفهوم التعلم الآلي Machine Learning

    ما مفهوم التعلم الآلي  ؟ (Machine Learning)

    هو أحد فروع الذكاء الاصطناعي التي تهتم بتطوير وتصميم خوارزميات وتقنيات تسمح للحواسيب بامتلاك خاصية التعلم، المَهمة الأساسية في التعلم الآلي هي استخراج معلومات قيمة من البيانات، وبالتالي فهو قريب جداً من التنقيب في البيانات.

    في كل مرة تستخدم فيها محرك البحث أحد أهم الأسباب التي تجعل تلك المحركات تعمل بشكل جيد هي خوارزميات الـ Machine Learning؛ تجعل شركة Google وغيرها من محركات البحث الأخرى هذه الخوارزميات تقوم بتصنيف وترتيب الصفحات وظهور النتائج بشكل جيد.

    في كل مرة تستخدم facebook ويقوم بالتصنيف والتعرف على وجوه أصدقائك في الصور، هذا أيضاً من خوارزميات التعلم الآلي.

    في كل مرة تقرأ البريد الإلكتروني ويقوم بفلترة وحجب الرسائل الغير مرغوب فيها ويُجنّبك الكثير من الرسائل المزعجة، هذا أيضاً يعتبر تعلم آلي Machine Leaening.

  • ما هو تعلم الالة Machine Learning

    ما هو تعلم الالة (Machine Learning) ؟

    تعلم الآلة هو أحد فروع الذكاء الاصطناعي التي تهتم بتصميم وتطوير خوارزميات وتقنيات تسمح للحواسيب بامتلاك خاصية “الـتـعـلـم”.

    بشكل عام هناك مستوين من التعلم :

    1. الاستقرائي

    2. الاستنتاجي

    يقوم الاستقرائي باستنتاج قواعد وأحكام عامة من البيانات الضخمة؛ المهمة الأساسية للتعلم الآلي هي استخراج معلومات قيمة من البيانات، وبالتالي فهو قريب جداً من “التنقيب في البيانات Data mining”والإحصاء، والمعلوماتية النظرية؛ يُستخدم التعلم الآلي في العديد من المجالات كالهندسة والطب ..

    تعتمد الخوارزميات المستخدمة في تعلم الآلة على مجموعة من النمادج الرسومية وأدوات القرار، كمعالجة اللغات الطبيعية والشبكات العصبية الاصطناعية للقيام بمهمة أتمتة البيانات المحللة والمعالجة، وبالتالي تحفيز الآلة على اتخاذ القرار والقيام بالمهام الموكلة لها بكل سهولة؛ ولابد من الإشارة إلى أن الشبكات العصبية الاصطناعية المستخدمة في تعلم الآلة تُؤدّي دوراً في غاية الأهمية يُضاهي دور الأعصاب وشبكاتها في جسم الإنسان ودماغه؛ وانطلاقاً من الدور المعقد الذي تقوم به الخوارزميات وأدواتها، فقد ظهرت الحاجة إلى الملحة للإتيان بما يُعرف بــ “التعلم العميق  Deep Learning”.

    و هناك العديد من الاستخدامات لتعلم الآلة كالتنبؤ بنتائج الانتخابات أو الطقس وغيرها ..

زر الذهاب إلى الأعلى
إغلاق

أنت تستخدم إضافة Adblock

يرجى تعطيل مانع الإعلانات حيث أن موقعنا غير مزعج ولا بأس من عرض الأعلانات لك فهي تعتبر كمصدر دخل لنا و دعم مقدم منك لنا لنستمر في تقديم المحتوى المناسب و المفيد لك فلا تبخل بدعمنا عزيزي الزائر