د څېړنې مشره او د ياد پوهنتون د کمپیوټر ساینس پروفیسوره، ایرینا ګوریویچ و کاتولیکي خبري آژانس ته ويلي:«دا به ممکن یوه تېروتنه وي چې د مصنوعي ځيرکتیا پر ماډلونو داسې تکیه وشي چې گواکې هغوی به پیچلې دندې پرته له مرستې پخپله تحلیل کړي او سر ته يې ورسوي.»
نوموړې زياته کړې ده چې د دې لپاره چې دغه ماډلونه پېچلي دندې تر سره کړلای شي، دوی و دقيقو لارښوونو ته اړتيا لري. هغې ويلي: «کاروونکي باید په ښکاره ډول هغه څه بیان کړي چې غواړي سیستمونه یې ترسره کړي، او که امکان وي بايد بیلګې هم ورته وړاندې کړي.»
گوريويچ، وايي چې دغه ماډلونه به احتمالاً لا هم داسې پایلې وړاندې کوي چې په ظاهره سمې ښکاري، خو په حقیقت کې غلطې وي. په ياده څېړنه کې ټينگار شوی دی چې راتلونکې څېړنه باید د هغو نورو خطرونو په اړه وي چې دا ماډلونه یې رامنځته کوي، لکه د جعلي خبرونو جوړولو وړتیا.
له مصنوعي ځيرکتيا څخه دا بېره هم کيږي چې زيات انسانان به بې روزگاره کړيانځور: Jaap Arriens/NurPhoto/picture alliance
د ماډلونو له خطرونو اندېښنې
د دارمشتت پوهنتون څېړونکو په دغه څېړنه کې په ځانګړې توګه د ژبنیو ماډلونو پر هغو ممکنه ناڅاپي پرمختگونو تمرکز کړی و چې بېله مراقبت څخه يې د رامنځته کېدلو اټکلونه کېدل. ساینسپوهانو وروسته له هغې چې دا ماډلونه معرفي شول، وموندل چې دا ماډلونه د هغوی د پراختيا او د هغه معلوماتو له زیاتېدو سره چې دوی پرې روزل شوي، لا ډېر پياوړي کيږي.
دا پرمختګ که له يوې خوا دا هیله رامنځته کړه چې د نورې روزنې سره به دغه ماډلونه لا بهتر شي، نو له بلې خوا يې دا اندېښنه هم رامنځته کړه چې دا وړتیاوې به خطرناکې شي.
د دغې اندېښنې له مخې ځکه چې کېدای شي ژبني ماډلونه خپلواک شي او د انسان له کنټرول څخه ووځي. د دې اندېښنو په جواب کې په ټوله نړۍ کې د مصنوعي ځيرکتيا يا (AI) سره تړلو قوانینو تصویب ته هم لاره هواره شوه. يادې اندېښنې په اروپايي ټولنه او امريکا متحده ايالاتو کې هم د اړونده قوانينو د جوړولو د هوډ لامل شوې. په دې ترڅ کې ملگرو ملتونو هم د مصنوعي ځيرکتيا په هکله لومړۍ پرېکړه تصويب کړه.