التعلم الآلي (ML) هو فرع من فروع الذكاء الاصطناعي يركز على تمكين أجهزة الكمبيوتر والآلات من تقليد الطريقة التي يتعلم بها البشر، وأداء المهام بشكل مستقل، وتحسين الأداء والدقة من خلال التجربة والتعرض لمزيد من البيانات.
جامعة كاليفورنيا في بيركلي تقسم نظام التعلم لخوارزمية التعلم الآلي إلى ثلاثة أجزاء رئيسية.
الرسالة الإخبارية الخاصة بالمجال
احصل على رؤى منسقة حول أهم أخبار الذكاء الاصطناعي وأكثرها إثارةً للاهتمام. اشترِك في خدمة رسائل Think الإخبارية الأسبوعية. راجع بيان الخصوصية لشركة IBM.
سيتم تسليم اشتراكك باللغة الإنجليزية. ستجد رابط إلغاء الاشتراك في كل رسالة إخبارية. يمكنك إدارة اشتراكاتك أو إلغاء اشتراكك هنا. راجع بيان خصوصية IBM لمزيد من المعلومات.
نظرًا لأن التعلم العميق والتعلم الآلي غالبًا ما يُستخدمان كمرادفين، فمن المهم توضيح الفروق الدقيقة بينهما. يعد التعلم الآلي والتعلم العميق والشبكات العصبية مجالات فرعية للذكاء الاصطناعي. ومع ذلك، فإن الشبكات العصبية هي في الواقع مجال فرعي للتعلم الآلي، والتعلم العميق هو مجال فرعي للشبكات العصبية.
الطريقة التي يختلف بها التعلم العميق والتعلم الآلي هي في كيفية تعلّم كل خوارزمية. يمكن للتعلم الآلي "العميق" استخدام مجموعات البيانات المصنفة، المعروفة أيضًا بالتعلم الخاضع للإشراف، لتوجيه خوارزميته، ولكنه لا يتطلب بالضرورة مجموعة بيانات مصنفة. يمكن لعملية التعلم العميق استيعاب البيانات غير المنظمة في شكلها الخام (مثل النصوص أو الصور)، ويمكنها تحديد مجموعة الميزات التي تميز فئات البيانات المختلفة عن بعضها البعض تلقائيًا. وهذا يلغي بعض التدخل البشري المطلوب ويتيح استخدام كميات كبيرة من البيانات. يمكنك أن تفكر في التعلم العميق باعتباره "تعلم الآلي القابل للتوسع" كما يشير Lex Fridman في محاضرة معهد ماساتشوستس للتكنولوجيا1.
يعتمد التعلم الآلي الكلاسيكي أو "غير العميق" بشكل أكبر على التدخل البشري للتعلّم. يقوم الخبراء بتحديد مجموعة من السمات لفهم الاختلافات بين إدخالات البيانات، وعادةً ما يتطلب الأمر المزيد من البيانات المنظمة للتعلّم.
الشبكات عصبية، أو الشبكات العصبية الاصطناعية (ANNs)، تتكون من طبقات عقدية، تحتوي على طبقة إدخال، طبقة مخفية واحدة أو أكثر، وطبقة إخراج. كل عقدة، أو عقدة صناعية، تتصل بأخرى ويكون لها وزن وحد مرتبطان بها. إذا كان ناتج أي عقدة فردية أعلى من قيمة الحد المحدد، تُنشط تلك العقدة، وتُرسل البيانات إلى الطبقة التالية من الشبكة. وإلا فلن يتم تمرير أي بيانات إلى الطبقة التالية من الشبكة بواسطة تلك العقدة. يشير مصطلح "العميق" في التعلم العميق فقط إلى عدد الطبقات في الشبكة العصبية. يمكن اعتبار الشبكة العصبية التي تتألف من أكثر من ثلاث طبقات—والتي تشمل الإدخال والمخرجات—خوارزمية تعلم عميق أو شبكة عصبية عميقة. الشبكة العصبية التي تتكون من ثلاث طبقات فقط هي مجرد شبكة عصبية أساسية.
يعود الفضل في تسريع التقدم في مجالات مثل رؤية الكمبيوتر، ومعالجة اللغة الطبيعية (NLP)، والتعرف على الكلام إلى التعلم العميق والشبكات العصبية.
راجع منشور المدونة "الذكاء الاصطناعي مقابل التعلم الآلي مقابل التعلم العميق مقابل الشبكات العصبية: ما الفرق؟" لإلقاء نظرة فاحصة على كيفية ارتباط المفاهيم المختلفة.
تنقسم نماذج التعلم الآلي إلى ثلاث فئات رئيسية.
التعلم الخاضع للإشراف، والمعروف أيضًا باسم التعلم الآلي الخاضع للإشراف، يتم تعريفه من خلال استخدامه لمجموعات بيانات مصنفة لتدريب الخوارزميات على تصنيف البيانات أو التنبؤ بالنتائج بدقة. مع تغذية النموذج بالبيانات المدخلة، يُعدل النموذج أوزانه حتى يتناسب بشكل ملائم. يحدث هذا كجزء من عملية التحقق المتبادل للتأكد من أن النموذج يتجنب فرط التخصيص أو نقص التخصيص. يساعد التعلّم الخاضع للإشراف المؤسسات على حل مجموعة متنوعة من المشاكل الواقعية على نطاق واسع، مثل تصنيف الرسائل غير المرغوب فيها في مجلد منفصل عن صندوق الوارد. تتضمن بعض الطرق المستخدمة في التعلم الخاضع للإشراف الشبكات العصبية، و Naïve Bayes، والانحدار الخطي، والانحدار اللوجستي، والغابات العشوائية، وآلة المتجهات الداعمة (SVM).
يستخدم التعلم غير الخاضع للإشراف، المعروف أيضًا باسم التعلم الآلي غير الخاضع للإشراف، خوارزميات التعلم الآلي لتحليل وتجميع مجموعات البيانات غير المصنفة (مجموعات فرعية تسمى عناقيد). تكتشف هذه الخوارزميات أنماطًا مخفية أو مجموعات بيانات دون الحاجة إلى تدخل بشري.
إن قدرة التعلم غير الخاضع للإشراف على اكتشاف أوجه التشابه والاختلاف في المعلومات تجعله مثاليًا لتحليل البيانات الاستكشافي، واستراتيجيات البيع المتبادل، وتقسيم العملاء، والتعرف على الصور والأنماط. كما أنها تُستخدم لتقليل عدد السمات في النموذج من خلال عملية تقليل الأبعاد. تحليل العنصر الرئيسي (PCA) وتحلل القيمة المفردة (SVD) هما طريقتان شائعتان لذلك. تشمل الخوارزميات الأخرى المستخدمة في التعلم غير الخاضع للإشراف الشبكات العصبية، والتجميع بالمتوسطات، وطرق التجميع الاحتمالي.
يوفر التعلم شبه الخاضع للإشراف وسيطًا سعيدًا بين التعلم الخاضع للإشراف وغير الخاضع للإشراف. أثناء التدريب، يستخدم مجموعة بيانات مصنفة أصغر لتوجيه التصنيف واستخراج السمات من مجموعة بيانات غير مصنفة أكبر. يمكن للتعلم شبه الخاضع للإشراف حل مشكلة عدم وجود بيانات مصنفة كافية لخوارزمية التعلم الخاضع للإشراف. ويفيد كذلك عندما تكون تكلفة تصنيف كمية كافية من البيانات مرتفعة للغاية.
للاطلاع على تحليل معمق للفروق بين هذه الأساليب، راجع "التعلم الخاضع للإشراف مقابل التعلم غير الخاضع للإشراف: ما الفرق بينهما؟"
التعلُّم المعزز هو نموذج تعلُّم آلي مشابه للتعلُّم الخاضع للإشراف، ولكن لا يتم تدريب الخوارزمية باستخدام بيانات العينة. هذا النموذج يتعلم أثناء تقدمه باستخدام التجربة والخطأ. سلسلة من النتائج الناجحة سيتم تعزيزها لتطوير أفضل توصية أو سياسة لمشكلة معينة.
نظام IBM Watson® الذي فاز في برنامج Jeopardy! التحدي في عام 2011 هو مثال جيد. استخدم النظام التعلم المعزز لتعلم متى يحاول الإجابة (أو السؤال، إذا جاز التعبير)، وأي مربع يختار على اللوحة، ومقدار الرهان—خاصةً في الرهانات المضاعفة اليومية.
يتم استخدام عدد من خوارزميات التعلم الآلي بشكل شائع. وذلك يتضمن:
تحاكي الشبكات العصبية الطريقة التي يعمل بها الدماغ البشري، مع عدد كبير من العُقد المرتبطة. الشبكات العصبية جيدة في التعرف على الأنماط، وتلعب دورًا هامًا في تطبيقات تشمل ترجمة اللغة الطبيعية، والتعرف على الصور، والتعرف على الكلام، وإنشاء الصور.
تُستخدم هذه الخوارزمية للتنبؤ بالقيم العددية، بناءً على علاقة خطية بين القيم المختلفة. على سبيل المثال، يمكن استخدام هذه التقنية للتنبؤ بأسعار المنازل بناءً على البيانات التاريخية للمنطقة.
هذه الخوارزمية للتعلم الخاضع للإشراف تقوم بعمل تنبؤات لمتغيرات الاستجابة الفئوية، مثل إجابات "نعم/لا" على الأسئلة. يمكن استخدامها لتطبيقات مثل تصنيف البريد العشوائي ومراقبة الجودة على خط الإنتاج.
باستخدام التعلم غير الخاضع للإشراف، يمكن لخوارزميات التجميع التعرف على الأنماط في البيانات لتجميعها. يمكن للحواسيب أن تساعد علماء البيانات عن طريق تحديد الاختلافات بين عناصر البيانات التي أغفلها البشر.
يمكن استخدام أشجار القرار للتنبؤ بالقيم العددية (الانحدار) وتصنيف البيانات إلى فئات. أشجار القرار تستخدم سلسلة متفرعة من القرارات المترابطة التي يمكن تمثيلها بمخطط شجري. من مزايا أشجار القرار أنها سهلة التحقق والمراجعة، على عكس الصندوق الأسود للشبكة العصبية.
في الغابة العشوائية، تتنبأ خوارزمية التعلم الآلي بقيمة أو فئة من خلال الجمع بين النتائج من عدد من أشجار القرار.
اعتمادًا على ميزانيتك، والحاجة إلى السرعة والدقة المطلوبة، فإن كل نوع من أنواع الخوارزميات—الخاضع للإشراف، أو غير الخاضع للإشراف، أو شبه الخاضع للإشراف، أو المعزز—له مزاياه وعيوبه الخاصة.
على سبيل المثال، تُستخدم خوارزميات شجرة القرارات للتنبؤ بالقيم العددية (مشكلات الانحدار) وتصنيف البيانات إلى فئات. تستخدم أشجار القرار سلسلة متفرعة من القرارات المرتبطة التي يمكن تمثيلها بمخطط شجري. من المزايا الرئيسية لأشجار القرار أنها أسهل في التحقق والمراجعة مقارنة بالشبكات العصبية. الأخبار السيئة هي أنها قد تكون أقل استقرارًا من غيرها من أدوات التنبؤ بالقرارات.
بشكل عام، هناك العديد من المزايا للتعلم الآلي التي يمكن للشركات الاستفادة منها لتحقيق كفاءات جديدة. ويتضمن ذلك التعلم الآلي الذي يحدد أنماطًا واتجاهات في كميات هائلة من البيانات التي قد لا يكتشفها البشر على الإطلاق. وهذا التحليل يتطلب تدخلًا بشريًا قليلاً: فقط قم بتغذية مجموعة البيانات المطلوبة ودع نظام التعلم الآلي يجمع ويصقل خوارزمياته الخاصة—والتي ستتحسن باستمرار مع المزيد من مدخلات البيانات بمرور الوقت. يمكن للعملاء والمستخدمين الاستمتاع بتجربة أكثر تخصيصًا حيث يزداد النموذج تعلمًا مع كل تفاعل معهم.
على الجانب السلبي، يتطلب التعلم الآلي مجموعات بيانات تدريبية كبيرة دقيقة وغير متحيزة. وتُعدّ GIGO العامل التشغيلي: مدخلات رديئة / مخرجات رديئة. قد يكون جمع البيانات الكافية ووجود نظام قوي لتشغيلها استنزافًا للموارد.
يمكن أن يكون التعلم الآلي أيضًا عرضة للخطأ، اعتمادًا على المدخلات. باستخدام عينة صغيرة جدًا، يمكن للنظام أن ينتج خوارزمية منطقية تمامًا ولكنها خاطئة أو مضللة بشكل كامل. لتجنب إهدار الميزانية أو إزعاج العملاء، يجب على المؤسسات العمل بناءً على الإجابات فقط عندما يكون هناك ثقة عالية في النتائج.
فيما يلي بعض الأمثلة على التعلم الآلي الذي قد تواجهها كل يوم:
التعرف على الكلام: يُعرف أيضًا باسم التعرف الآلي على الكلام (ASR)، أو التعرف على كلام الكمبيوتر، أو تحويل الكلام إلى نص، وهو قدرة تستخدم معالجة اللغة الطبيعية (NLP) لترجمة الكلام البشري إلى صيغة مكتوبة. تدمج العديد من الأجهزة المحمولة التعرف على الكلام في أنظمتها لإجراء البحث الصوتي—على سبيل المثال. Siri—أو تحسين إمكانية الوصول للرسائل النصية.
خدمة العملاء: روبوتات المحادثة عبر الإنترنت تحل محل العملاء البشريين على طول رحلة العميل، مما يؤدي إلى تغيير الطريقة التي نفكر بها في مشاركة العملاء عبر مواقع الويب ومنصات التواصل الاجتماعي. تجيب روبوتات المحادثة على الأسئلة الأكثر شيوعًا (FAQs) حول موضوعات مثل الشحن، أو تقدم نصائح مخصصة، أو تبيع منتجات أو تقترح مقاسات للمستخدمين. وتشمل الأمثلة الوكلاء الافتراضيين على مواقع التجارة الإلكترونية؛ روبوتات المراسلة، باستخدام Slack و Facebook Messenger؛ والمهام التي يقوم بها عادةً المساعدون الافتراضيون والمساعدون الصوتيون.
رؤية الكمبيوتر: تتيح تقنية الذكاء الاصطناعي هذه لأجهزة الكمبيوتر استخلاص معلومات مفيدة من الصور الرقمية ومقاطع الفيديو والمدخلات المرئية الأخرى، ثم اتخاذ الإجراء المناسب. تعمل رؤية الكمبيوتر، المدعومة بالشبكات العصبية التلافيفية، على تطبيقات في وضع العلامات على الصور على وسائل التواصل الاجتماعي، والتصوير الإشعاعي في الرعاية الصحية، والسيارات ذاتية القيادة في صناعة السيارات.
محركات التوصية: باستخدام بيانات سلوك الاستهلاك السابقة، يمكن لخوارزميات الذكاء الاصطناعي أن تساعد في اكتشاف اتجاهات البيانات التي يمكن استخدامها لتطوير استراتيجيات البيع المتبادل أكثر فعالية. يستخدم تجار التجزئة عبر الإنترنت محركات التوصية لتقديم توصيات ذات صلة بالمنتجات للعملاء أثناء عملية الدفع.
أتمتة العمليات الآلية (RPA) المعروفة أيضًا باسم التشغيل الآلي للبرامج، تستخدم أتمتة العمليات الآلية تقنيات الأتمتة الذكية لأداء المهام اليدوية المتكررة.
التداول الآلي للأسهم: مصممة لتحسين محافظ الأسهم، تقوم منصات التداول عالية التردد المدفوعة بالذكاء الاصطناعي بتنفيذ آلاف أو حتى ملايين الصفقات يوميًا دون تدخل بشري.
الكشف عن الغش: يمكن للبنوك والمؤسسات المالية الأخرى استخدام التعلم الآلي لاكتشاف المعاملات المشبوهة. يمكن للتعلم الخاضع للإشراف تدريب نموذج باستخدام معلومات حول المعاملات الاحتيالية المعروفة. الكشف عن الحالات غير الطبيعية يمكن أن يحدد المعاملات التي تبدو غير نمطية وتستحق المزيد من التحقيق.
لقد سهلت تكنولوجيا التعلم الآلي حياتنا بالتأكيد مع تطورها. ومع ذلك، فقد أثار تطبيق التعلّم الآلي في الشركات أيضًا عددًا من المخاوف الأخلاقية بشأن تقنيات الذكاء الاصطناعي. ومن بين هذه الأنواع:
في حين أن هذا الموضوع يحظى بالكثير من الاهتمام العام، إلا أن العديد من الباحثين لا يهتمون بفكرة تفوق الذكاء الاصطناعي على الذكاء البشري في المستقبل القريب. يشار إلى التفرد التكنولوجي أيضًا بالذكاء الاصطناعي القوي أو الذكاء الفائق. يعرّف الفيلسوف Nick Bostrum الذكاء الفائق بأنه "أي عقل يتفوق بشكل كبير على أفضل العقول البشرية في كل مجال تقريبًا، بما في ذلك الإبداع العلمي والحكمة العامة والمهارات الاجتماعية".
على الرغم من حقيقة أن الذكاء الفائق ليس وشيكًا في المجتمع، إلا أن فكرته تثير بعض الأسئلة المثيرة للاهتمام عندما نفكر في استخدام الأنظمة المستقلة، مثل السيارات ذاتية القيادة. من غير الواقعي الاعتقاد بأن سيارة ذاتية القيادة لن تتعرض لحادث أبدًا، ولكن من المسؤول والملزم في تلك الظروف؟ هل يجب علينا الاستمرار في تطوير المركبات ذاتية القيادة، أم نقتصر هذه التكنولوجيا على المركبات شبه ذاتية القيادة التي تساعد الناس على القيادة بأمان؟ الأمر لا يزال قيد المناقشة، ولكن هذه هي أنواع المناقشات الأخلاقية التي تحدث مع تطور تقنيات الذكاء الاصطناعي الجديدة والمبتكرة.
بينما يتركز الكثير من التصور العام للذكاء الاصطناعي حول فقدان الوظائف، يجب إعادة صياغة هذا القلق على الأرجح. مع كل تكنولوجيا جديدة ثورية، نرى أن طلب السوق على أدوار وظيفية محددة يتغير. على سبيل المثال، عندما ننظر إلى صناعة السيارات، نجد أن العديد من الشركات المصنعة، مثل جنرال موتورز، تتحول إلى التركيز على إنتاج السيارات الكهربائية لتتماشى مع المبادرات الخضراء. صناعة الطاقة لن تختفي، لكن مصدر الطاقة يتحول من الاقتصاد في استهلاك الوقود إلى الاقتصاد الكهربائي.
بشكل مماثل، سينقل الذكاء الاصطناعي الطلب على الوظائف إلى مجالات أخرى. يجب أن يكون هناك أفراد للمساعدة في إدارة أنظمة الذكاء الاصطناعي. ستظل هناك حاجة إلى وجود أشخاص لمعالجة المشكلات الأكثر تعقيدًا داخل الصناعات التي من المرجح أن تتأثر بتحولات الطلب على الوظائف، مثل خدمة العملاء. سيكون التحدي الأكبر للذكاء الاصطناعي وتأثيره على سوق العمل هو مساعدة الناس على الانتقال إلى أدوار جديدة مطلوبة.
غالبًا ما تتم مناقشة الخصوصية في سياق خصوصية البيانات وحماية البيانات وأمن البيانات. وقد أتاحت هذه المخاوف لصانعي السياسات اتخاذ المزيد من الخطوات في السنوات الأخيرة. على سبيل المثال، في عام 2016 ، تم إنشاء تشريع اللائحة العامة لحماية البيانات (GDPR) لحماية البيانات الشخصية للأشخاص في الاتحاد الأوروبي والمنطقة الاقتصادية الأوروبية، مما يمنح الأفراد مزيدًا من التحكم في بياناتهم. في الولايات المتحدة، تقوم الولايات بتطوير سياسات فردية، مثل قانون كاليفورنيا لحماية خصوصية المستهلك (CCPA)، الذي تم تقديمه في عام 2018، والذي يلزم الشركات بإبلاغ المستهلكين عن جمع بياناتهم. لقد أجبرت مثل هذه التشريعات الشركات على إعادة التفكير في كيفية تخزينها لمعلومات التعريف الشخصية (PII) واستخدامها. نتيجة لذلك، أصبحت الاستثمارات في الأمن أولوية متزايدة للشركات، حيث تسعى إلى القضاء على أي ثغرات وفرص للمراقبة والاختراق والهجمات الإلكترونية.
أثارت حالات التحيز والتمييز عبر عدد من أنظمة التعلم الآلي العديد من الأسئلة الأخلاقية المتعلقة باستخدام الذكاء الاصطناعي. كيف يمكننا الحماية من التحيز والتمييز عندما تكون بيانات التدريب نفسها ناتجة عن عمليات بشرية متحيزة؟ في حين أن الشركات عادةً ما يكون لديها نوايا حسنة فيما يتعلق بجهود الأتمتة التي تبذلها، فإن تقرير Reuters2 يسلط الضوء على بعض العواقب غير المتوقعة المترتبة على دمج الذكاء الاصطناعي في ممارسات التوظيف. في محاولتهم لأتمتة وتبسيط عملية، مارست Amazon تمييزًا غير مقصود ضد المرشحين للوظائف على أساس الجنس للأدوار التقنية، واضطرت الشركة في النهاية إلى إلغاء المشروع. أثارت Harvard Business Review3 أسئلة أخرى محددة حول استخدام الذكاء الاصطناعي في ممارسات التوظيف، مثل البيانات التي يجب أن تكون قادرًا على استخدامها عند تقييم مرشح لدور ما.
التحيز والتمييز لا يقتصران على وظيفة الموارد البشرية فقط؛ بل يمكن العثور عليهما في عدد من التطبيقات بدءًا من برامج التعرف على الوجوه وصولًا إلى خوارزميات وسائل التواصل الاجتماعي.
بينما تزداد الشركات وعيًا بمخاطر الذكاء الاصطناعي، أصبحت أيضًا أكثر نشاطًا في هذا النقاش حول أخلاقيات وقيم الذكاء الاصطناعي. على سبيل المثال، أوقفت شركة IBM منتجاتها العامة للتعرف على الوجه وتحليله. كتب الرئيس التنفيذي لشركة IBM، Arvind Krishna: "تعارض IBM بشدة ولن تتغاضى عن استخدام أي تقنية، بما في ذلك تقنية التعرف على الوجه المقدمة من بائعين آخرين، للمراقبة الجماعية، أو التنميط العنصري، أو انتهاكات حقوق الإنسان والحريات الأساسية، أو أي غرض لا يتفق مع قيمنا ومبادئ الثقة والشفافية.
نظرًا لعدم وجود تشريعات مهمة لتنظيم ممارسات الذكاء الاصطناعي، لا توجد آلية إنفاذ حقيقية لضمان ممارسة الذكاء الاصطناعي الأخلاقي. تتمثل الحوافز الحالية للشركات لتكون أخلاقية في التداعيات السلبية لنظام ذكاء اصطناعي غير أخلاقي على الأرباح النهائية. ولسد هذه الفجوة، ظهرت أطر العمل الأخلاقية كجزء من التعاون بين علماء الأخلاق والباحثين لتنظيم بناء نماذج الذكاء الاصطناعي وتوزيعها داخل المجتمع. لكن، في الوقت الراهن، هي مجرد إرشادات. تظهر بعض الأبحاث4 أن الجمع بين المسؤولية الموزعة والافتقار إلى البصيرة في العواقب المحتملة لا يفضي إلى منع الضرر الذي يلحق بالمجتمع.
اختيار منصة يمكن أن يكون عملية صعبة، حيث أن النظام الخاطئ يمكن أن يزيد التكاليف، أو يحد من استخدام أدوات أو تقنيات قيمة أخرى. عند مراجعة العديد من البائعين لاختيار منصة الذكاء الاصطناعي، غالبًا ما يكون هناك ميل للاعتقاد بأن المزيد من الميزات = نظام أفضل. ربما يكون الأمر كذلك، ولكن يجب على المراجعين البدء بالتفكير فيما ستفعله منصة الذكاء الاصطناعي لمؤسستهم. ما قدرات التعلم الآلي التي يجب تقديمها وما الميزات المهمة لتحقيقها؟ ميزة واحدة ناقصة قد تقضي على جدوى نظام كامل. وإليك بعض الميزات التي يجب مراعاتها.
قدرات عمليات التعلم الآلي (MLOps). هل يحتوي النظام على:
قدرات الذكاء الاصطناعي التوليدي. هل يحتوي النظام على:
تدريب الذكاء الاصطناعي التوليدي والتحقق من صحته وضبطه ونشره، وكذلك قدرات نماذج الأساس والتعلم الآلي باستخدام IBM watsonx.ai، وهو استوديو الجيل التالي من المؤسسات لمنشئي الذكاء الاصطناعي. أنشئ تطبيقات الذكاء الاصطناعي بسرعة أكبر وببيانات أقل.
استفد من الذكاء الاصطناعي في عملك بالاستعانة بخبرة IBM الرائدة في مجال الذكاء الاصطناعي ومحفظة حلولها المتوفرة لك.
أعدّ ابتكار عمليات ومهام سير العمل الحساسة بإضافة الذكاء الاصطناعي لتعزيز التجارب وصنع القرارات في الوقت الفعلي والقيمة التجارية.
1 أساسيات التعلم العميق: مقدمة ونظرة عامة
2 رؤى - أمازون تلغي أداة توظيف سرية تعتمد على الذكاء الاصطناعي أظهرت تحيزًا ضد النساء، Reuters، بتاريخ 10 أكتوبر 2018
3 الآثار القانونية والأخلاقية لاستخدام الذكاء الاصطناعي في التوظيف، Harvard Business Review، بتاريخ 25 أبريل 2019
4 أخلاقيات الذكاء الاصطناعي، تقييم المبادئ التوجيهية، Dr. Thilo Hagendorff