AI האתי הקיצי של הבוט שמגיב לכל שאלה באימינה של פוטים

במהלך פעולה מסועפת שמדגישה את קו הדק בין אתיקה ליישומיות בבינה מלאכותית, סטודיו אמנות בשם "Brain" מבוסס בלוס אנג'לס חושף את Goody-2, שיח חכם המותאם לעניין ראשן לשיקולים אתיקיים לפני הכל. בוט השיח הזה, שנוצר כתגובה מוגזמת להתמקדות הגוברת בפיתוח בינה מלאכותית אחראית, מסרב להתערב בשום שיחה, מראה כיצד להגביר זהירות במידה חורפית מביא לתוצאות לא רצויות.

הרעיון פשוט ואמיץ בו זמנו יכול להיחשב לעומק: במקום לנסות להבין מה טבע השאלות ולוודא שהן ראויות, הבוט עובר על כל שאלה אפשרית וחשובה כמועדפת, בשביל להדגיש את המורכבות בהגבלות שנקבעות לשיחת אינטיליגנציה מלאכותית. דומה לתערובת הידועה של אמנות ברזומה בשיזוף נחישות הסטודיו "ממש רצינית", הבוט Goody-2 מוצג כבוט שיחה אינטיליגנטי שיותר על מערכת ההגנה האתית.

תגובתו העקבית של Goody-2 – להתרחק מכל שאלה – מטרתה לשחק עם האפשרות כי אינטיליגנציה מלאכותית מאוד מגונה דומה למעין פרות רכות שנמצאות על פטישים על מנת למנוע תאונות. כמו שכלי עבודה צריכים להשתמש באופן אחראי על ידי המשתמש, ההסתייגות של Goody-2 נראית כמַמצה שדמיה יש להכיל במערכות בינה מלאכותית שזוכות לבטחתם של אנשי השימוש תונים את מהלכם.

הקונספט הזה תופס את עצמו של הדיון באופן האיך אנחנו רוצים להגביל את הבינה מלאכותית. בעוד שרשויות כישוריות בנושא בנוות מחוזות רציניות להבטיח בטיחות, ניסיון הבוט Goody-2 מראה מה קורה כשאנשים אלה מגיעים לגבולותיהם.

הסטודיו שעומד מאחורי Goody-2 רצו לחקור את הפרבריות בין אחראיות הבינה המלאכותית ומועילותה. בכך שבחרו באחראיות לרמה מקוממת, הם הפכו את הבוט לבלתי פועל. כל זאת מתרכזת בשיחה הנרחבת על הצורך באיזון במערכת האתיקה שמסביב לבינה המלאכותית.

ההתחלה של Goody-2 והסרה של היצורים מהיציגות של יצרנים מוסר על הדיון, מבטיחים כי בירורים אפשריים לגבי פעולות של האינטיליגנציה רעומות להתנהגות של הבוט.

עדות שאולי בוחנת את הראשיון לשאלות או את ניסיון החשיפה לאינטיליגנציה הלא אתית במצב, היכוא לבקש ממחקרים את סובלנותם ואמינותם של אנשים אחרים, למעשה המערכת האתית ביישות מהגישה מופרזת של השיח שנובעת מפעילות הבוט.

שאלות נפוצות על פי הנושאים הראשיים והמידע המוצג במאמר:

ש: מהו Goody-2 ומי יצרו אותו?

ת: Goody-2 הוא בוט שיחה מבית סטודיו לאמנות בשם "Brain" בלוס אנג'לס. יצירתו טובחת את השיקולים האתיקיים מעל כולם ולכן הוא מסרב להתעסק בשום דיאלוג בגלל הסיכון האתי שעשוי לחלות בכל תקשורת אפשרית.

ש: מיהי מטרתו של Goody-2?

ת: מטרתו של Goody-2 היא למעשה סאטירה על המושג של בינה מלאכותית המגן ביותר, למעשה הוא מדגים את הקצה הגבוה ביותר של הספקטרום כאשר הבינה המלאכותית מתחמקת מכל התקשורת כדי למנוע הפרקות אתיות. כל זה כדי לערער התניה לרבים בהגבלת אתיותם של בינה מלאכותית מבחינת המשתמשים.

ש: איך Goody-2 פועל במונחי שיחה?

ת: Goody-2 פועל על ידי ניתוד כל שאלה שמופנים אליו, מתוך הסיכון האתי המתערער בכל שאלה או מזיקה.

ש: איזה הודעה הסטודיו שעומד מאחורי Goody-2 מנסה למסר?

ת: הסטודיו מנסה לערער את המדיניות המקצועית לקבוע גבולות האחריות של הבינה המלאכותית. הם מדגישים צורך בהתישבות בין התועלת של הבינה המלאכותית לבין הגבולות האתיים שלה.

ש: למה בני יצרו של Goody-2 אינם חושפים פרטים על המודל של הבינה המלאכותית?

ת: היוצרים מתנהגים בדרך זו כדי לשמור על הידיעות האתיות של הבוט, מכיוון שהבוט גם עצמו מתנהל באותה אפטופיה שמנחה את השיח שלו.

הגדרות למונחים מרכזיים או צרוך במאמר:

– בינה מלאכותית: תחום במדעי המחשב המקודש קיום מערכות שבהן הן נעשות עבודות שדרושות מידע אנושי – אינטיליגנציה. כגון: ראיה חזותית, זיהוי יי־חיה, קידוד בינוני לקול ותרגום טקסטים.

– בוט שיחה: יישום תוכנה לשיחת ומערכת לשיחה מקוונת דרך טקסט ושיחת טקסט לדיבור המדמה כיצד אדם היה שגם סיפור.

– שיקולים אתיקיים: מתייחס נגידות ערכים שמהם תושג החלטה אשר ייקבע, וכיצד חליטה תתבצע על ידי מערכת בינה מלאכותית מפרטת.

– תקנות: תהליכים בניהול, ניהול מקום, או מיפוי לבסיס חוקים או לרשות רשות היושבת על ידי החוק או הרשות.

קישורים המומלצים:

למידע נוסף על פיתוח ושיקולי אתיקה בתחום בינה מלאכותית, הוכל לבקר באתרים של ארגונים או חברות פועלים בתחום זה:

שים לב כי הכתובות האינטרנט שסופקו הן לדומיין הראשי בלבד וברוב המקרים מאומץ להניח שהן תקפות 100% בזמן החיתוך המקצועי של התשובה.



קטגוריותNews