כדאי לשים לב, בשולי החדשות לכאורה, לידיעה והחלטה מאוד מעניינת וחשובה:
193 מדינות חברות באונסק"ו, הגיעו להסכמה בדבר טיוטת הסכם, לגבי רגולציה בינלאומית של בינה מלאכותית (AI ).
טוב, אין צורך להעמיק ולחקור ולדרוש ולהסביר, כמה בינה מלאכותית חשובה, ועוד יותר תהא חשובה בחיינו השוטפים. אני מניח, שקוראים פה מבינים החשיבות העצומה.
אבל, כאן הגיעו, ולראשונה, להסכם, או טיוטת הסכם. והטיוטה, קובעת עקרונות חשובים. למשל:
שהחוק הבינלאומי, חוקים הומניטריים הנוגעים לזכויות אדם וכדומה, חייבים להילקח בחשבון בכל חקיקה או מדיניות הנוגעת ליישומים של בינה מלאכותית.מענין לציין, שנושאים של איכות הסביבה מאוד דומיננטיים בטיוטה עצמה.
זה ככה בכללי בגדול להיות מעודכן ולהבין.
כאן אבל, נשמח לשמוע דעתכם, בקשר לדילמה או סוגייה מאוד חשובים ומרכזייים בנוגע לבינה מלאכותית:
דילמה שמזה זמן רב, מאוד מטרידה משפטנים, מומחים, אנשי מקצוע, אנשי רוח וכדומה:
מחד, הבינה המלאכותית, נועדה בין היתר, למה שנקרא : Decision making .כלומר, לקבל החלטות נניח תבוניות ומעין אנושיות במצבים מסויימים. אלא, שלצורך כך, צריך למידה מעמיקה ואוטונומית של הגולם (הבינה המלאכותית). אם אתה קוטע לו האוטונומיה של הלמידה העצמית והמעמיקה, אתה פוגע בתכלית ובמהות:
חיקוי החשיבה האנושית וההתפתחות האנושית. כלומר, התכלית צריכה להיות, מוח של אדם, אבל, עם כוחות מיחשוב עצומים. מוח של אדם, לא יכול להיות מופרע על ידי שליטה באוטונומיה של הישות, נניח לכבות ולהדליק כרצונך. ככה אדם לא יכול להתפתח נניח בגדול.
מאידך:
הבינה המלאכותית, נועדה לשרת את האדם. האדם צריך לשלוט בה. אי אפשר לתת לבינה כזו, לא כל שכן בלי הרבה ניסיון לגביה ולגבי ביצועיה, לקבל החלטות גורפות, שיחרצו גורלות של אנשים.
ועוד נדבך:
אם היא ישות אוטונומית, מי יעמוד לדין ? מכונה תעמוד לדין ? האדם שתכנן המכונה (או כלי הנשק למשל, שפועל עצמאית יעמוד לדין ?) אולי בכלל, אפשר להעמיד מכונה לדין ? איפה זה כתוב בעצם, שאי אפשר( פילוסופית, להבדיל ממשפטית).
או שאולי יטען הטוען, שאף אחד בכלל לא יעמוד לדין. כלומר:
נניח מכונה טעתה במלחמה, והורידה אלפי אזרחים במכה. ואף אחד לא יעמוד לדין !
אפשר לחשוב על המון נימוקים לכאן ולשם.
המסמך של אונסק"ו הוא ברור מאוד בקשר לכך, נצטט ( פסקאות 35-36 לטיוטה, ומיזגתי בינהן למען הנוחות):
Human oversight and determination
It must always be possible to attribute ethical and legal responsibility for any stage of the life cycle of AI systems to physical persons or to existing legal entities. Human oversight refers thus not only to individual human oversight, but to public oversight, as appropriate. It may be the case that sometimes humans would have to rely on AI systems for reasons of efficacy, but the decision to cede control in limited contexts remains that of humans, as humans can resort to AI systems in decision-making and acting, but an AI system can never replace ultimate human responsibility and accountability.
נתרגם בתמצית ספונטנית:
צריך תמיד לייחס אתית ומשפטית את מעשי הבינה המלאכותית, לאדם או לישות טבעית אנושית משפטית. כך בכל שלב של חיי מכשיר בינה מלאכותית. השליטה והפיקוח והבקרה, צריכים להיות ציבוריים על מכשיר כזה. גם אם צריך להשתמש בבינה מלאכותית מחמת שיקולים של יעילות, לא מאבדים שליטה על בינה מלאכותית בקשר לקבלת החלטות. תמיד בסוף, האדם הוא האחראי, הוא השולט, הוא זה הנותן הדין.
עד כאן התרגום:
הדילמות יכולות להיות עצומות במצב כזה, זה ברור.
מענין לציין בשולי הדברים, כלל וכלל אבל לא בשוליים, שמדינת צ'ילי, חוקקה לאחרונה חוק, אשר אוסר מניפולציה על נפש אנושית תוך שימוש בבינה מלאכותית. כאן בכלל, הנושא מורכב ורגיש מאוד.
אבל, כאן עסקינן, בדילמה פשוטה:
מי אחראי משפטית? מי בעל הבית? בעל הבית נניח השתגע עם מבצע הוזלות כמו שאנו קוראים תדיר ? אבל מי הוא ? מכונה?
נשמח, לשמוע דעתכם.
להשאיר תגובה