כניסה
הרשמה לניוזלטר

היא יודעת להעמיד פני מת כאשר מתבוננים בה, לעקוף מבחני בטיחות שנועדו להגביל אותה, לכרות בריתות מזויפות כדי להונות אנשים, ולקבל החלטות אוטונומיות על דעת עצמה. "אנחנו בונים כאן מערכות בינה מלאכותית שיהיו חכמות כמונו ויתחרו בנו, מבלי שאנו יודעים איך הסיפור הזה עתיד להסתיים", מזהירים חוקרים

רקפת תבור | 9 ביוני 2024 | מדע וטכנולוגיה | 16 דק׳

חוקרים: הבינה המלאכותית הפכה למומחית בשקרים והונאה

רובנו כבר הורגלנו לקחת את מה שאומרים צ'אטבוטים מבוססי בינה מלאכותית כמו ChatGPT ו"בארד" (ששמו הוחלף לג'מיני) עם גרגר של מלח, מכיוון שלעתים הם מציגים מידע לא מדויק ואף מומצא לחלוטין. אבל כעת, מתברר, יש סיבה להיות זהירים אף יותר.

מאמר סקירה שפורסם בחודש שעבר מצא כי מערכות רבות של בינה מלאכותית כבר שולטות באמנות ההונאה, ופיתחו יכולת להציג למשתמשים מידע שקרי במכוון. בהן מערכות שהוכשרו להיות כנות ולבצע משימה ספציפית אחת.

"רצינו לבדוק אילו יכולות יש למערכות הבינה המלאכותית הקיימות היום – ואם הן כבר יכולות להונות אנשים", מספר לי פרופ' סיימון גולדשטיין מאוניברסיטת הונג קונג, אחד ממחברי מאמר הסקירה, העובד כחוקר במרכז לבטיחות AI בסן פרנסיסקו. "מצאנו שהמערכות האלה יודעות כעת איך לרמות ולעשות דברים אנטי חברתיים נוספים".

צילום: Shutterstock

שתפו: