מאחורי האלגוריתם: כיצד הבינה המלאכותית מפלה אנשים עם מוגבלויות בגיוס לעבודה
כתיבה: מאי כהן
עריכה: עו"ד דיאנה בארון
השפעתה הרחבה והדרמטית של הבינה המלאכותית הגיעה גם לשוק העבודה. בשנים האחרונות, יותר ויותר מעסיקים עושים שימוש בצ׳אט GPT באיתור, מיון והשמה של מועמדים לעבודה. הצ׳אט מדמה צוות HR (Human Resources) שמגייס את העובדים והעובדות המתאימים לתפקיד בחברה. מעסיקים החלו להשתמש בצ'אט בניסוח מודעות דרושים וכיום השימוש בצ'אט הפך לכלי לסינון קורות חיים וניתוח ראיונות עבודה. להשפעה זו יש יתרונות אדירים כמו ייעול תהליך הגיוס ומציאת מועמדים רלוונטיים. מנגד, מערכות אלו מוציאים את האינטואיציה ושיקול הדעת האנושי בבחירת מועמד ראוי לתפקיד, לטובה ולרעה, מה שיכול להוביל לפגיעה באוכלוסיות מוחלשות, כגון, אנשים עם מוגבלויות.
כבר היום אנשים עם מוגבלויות משתלבים בשיעורים נמוכים יותר בשוק העבודה בהשוואה לאנשים ללא מוגבלויות, ונאלצים להתמודד עם אפליה מערכתית מתמשכת בתחום התעסוקה. פערים אלו מתקיימים על אף קיומן של הגנות משפטיות שנועדו לצמצם את חוסר השוויון ולהבטיח שוויון הזדמנויות, כמו החוק הפדרלי בארצות הברית לאנשים עם מוגבלויות (ADA). החוק אוסר על אפליה של מועמדים עם מוגבלויות הן בתהליכי מיון וגיוס והן במהלך תקופת העבודה. מעסיקים העוברים על הוראות החוק עלולים לעמוד בפני סנקציות משפטיות.
בארה״ב, השימוש בכלי בינה מלאכותית הפך לתופעה נפוצה, וכבר ישנן מספר דוגמאות לאופן שבו הבינה המלאכותית מציגה הטיה ואפליה אפשרית בתהליך הגיוס, בין היתר כלפי אנשים עם מוגבלויות. דוגמה אחת לכך, ניתן למצוא במקרה של חברת HireVue, חברת השמה אמריקאית מבוססת בינה מלאכותית, שמאפשרת לערוך ראיונות דיגיטליים לגיוס עובדים למקומות עבודה שונים. התוכנה בודקת האם מועמד מתאים לעבודה באמצעות בדיקה של דפוסי דיבור, טון דיבור ותנועות פנים. עם זאת, כפי שנחשף, בדו"ח שנערך ע"י חוקרים בקולורדו שיטה זו עלולה להוביל לאפליה של אנשים רבים עם מוגבלויות המתקשים בהבעת פנים ובדיבור.
גם בישראל, השימוש ב- AI הפך לנפוץ במיוחד. לפי סקר של חברת HRD שנערך בקרב נשות ואנשי גיוס בקרב 300 ארגונים, 70% מהמגייסים משתמשים בבינה מלאכותית לצורכי גיוס עובדים לעבודה. השימוש במערכות אלו מאפשר למגייסים לקבל מידע רחב יותר על המועמד.
ההטיות של המערכות אלו יכולות להשפיע גם על עובדים עם מוגבלויות כמו אוטיזם, או מוגבלויות מוטוריות אחרות שעשויים להתמודד עם קשיים בהבעות פנים או בשפת גוף שהם בדרך כלל תוצאה של המגבלה שלהם, ולא בהכרח מצביעים על חוסר יכולת מקצועית. כתוצאה מכך המערכת עשויה להיות מושפעת מהטיות, שיכולות להוביל לאפליה.
בתוך כך, במרץ 2025 הוגשה תביעה על ידי האיגוד האמריקאי לחירויות אזרחיות (ACLU) נגד חברת HireVue. התביעה הוגשה בשם אישה עם מוגבלות בשמיעה שלדבריה לא קודמה לתפקיד ניהולי כיוון שמערכת HireVue לא הצליחה לפענח כראוי את דיבורה באנגלית ולא סיפקה כתוביות לכל השאלות במהלך הריאיון. התובעים טענו כי השימוש בטכנולוגיה זו הפר את החוק למניעת אפליה של מדינת קולורדו (CADA) ואת חוק הפדרלי לאנשים עם מוגבלויות (ADA) בכך שהמערכת יוצרת אפליה כלפי מועמדים עם מוגבלויות.
דוגמה נוספת מופיעה בדו״ח מחקרי של מרכז לטכנולוגיה ודמוקרטיה בארה״ב מנובמבר 2024, במחקר השתתפו 17 אנשים עם מוגבלויות שונות אשר עברו ראיונות מול תוכנה שמבוססת בינה מלאכותית. ממצאי המחקר קבעו כי המערכת אילצה את המועמדים לחשוף פרטים על מצבם הבריאותי באופן שעלול לעמוד בניגוד לחוקים פדרליים האוסרים על בירור מידע רפואי בתהליכי גיוס ומיון לעבודה. בנוסף, המחקר מצא גם כי אלגוריתמים המנתחים הבעות פנים, טון דיבור ושפת גוף עלולים להעניק ציונים נמוכים למועמדים עם מוגבלויות, מבלי להתחשב בכך שמצבם הרפואי עשוי להשפיע על אופן התנהלותם במהלך הריאיון.
אמנם, השימוש בבינה מלאכותית בתהליכי גיוס עובדים מעניק יתרונות רבים. בקרב התומכים עולה טענה כי בניגוד למגייסים אנושיים, המערכת לא מערבת שיקולים אנושיים בבחירת מועמד לתפקיד והיא אף מסוגלת לראות כישורים שנמצאים אצל המועמד שמגייסים בשר ודם עלולים לפספס. באמצעות הבינה המלאכותית מגייסים יכולים להגדיר בצורה מדויקת יותר את הדרישות לתפקיד ולקבל החלטות מושכלות יותר. עם זאת, על אף היתרונות הגלומים בבינה מלאכותית, אין להסתמך עליה באופן מוחלט. על חברות המשתמשות בתוכנות מבוססות בינה מלאכותית לגיוס עובדים חייבות להבטיח כי יהיה ניתן להציג ולבחון את תהליך קבלת ההחלטות של המערכת, כך שיוכלו להבין כיצד הגיעה המערכת למסקנותיה. מעבר לכך, על מנת להימנע מאפליה של אנשים עם מוגבלויות. אני סבורה כי על המעסיקים לבצע מעקב תקופתי אחרי המערכת, ולוודא שלא התפתחה בה הטיה כלפי קבוצה מסוימת. בנוסף, ואולי חשוב מכל, יש להימנע מהסתמכות מוחלטת על המערכת. המערכות האלו הן כלי לייעול תהליכים, ולהכוונת מעסיקים. הן לא נועדו להחליף אותם ולהחליט בשבילנו. ולכן, יש להפעיל שיקול דעת אנושי בתהליך קבלת ההחלטות ולא להסתמך באופן מוחלט ועיוור על מערכות מבוססות בינה מלאכותית.