Санаттар: Аналитика

Жасанды интеллект туралы алты өсиет

Келесі жылдар жасанды интеллект технологияларының қарқынды дамуымен ерекшеленетін болады. Мүмкін, АИ құру және пайдалану үшін нақты анықталған шеңберлерді енгізу қажет шығар? Зертханадан әлі шықпаған технологияны реттеу үшін 6 айлық тәжірибе жеткілікті ме? Бұл сұрақ жасанды интеллект туралы сөз болғанда сарапшылар мен журналистердің аузынан жиі шығады. Қолданушы деңгейінде де, жобаны әзірлеу деңгейінде де жасанды интеллектті реттеу бойынша шаралар қабылдау туралы дауыстар мен шақырулар жиі естіліп жатыр. Мұндай үндеулердің тарихы өте ұзақ уақыт бұрын басталды.

Цифрлық кеңістікте жасанды интеллекттің және, ең алдымен, адамдар жасағаннан ерекшеленбейтін мазмұнды жасауға қабілетті модельдердің барлық жерде болуы әртүрлі эмоцияларды тудырады. Бір жағынан, бізде болашақты AI-да көретін және салыстырмалы түрде шектеулі мүмкіндіктеріне қарамастан (себебі AI ойланбайды және көбінесе Интернеттен ақпаратты алады) оған көптеген тапсырмаларды сеніп тапсырудан қорықпайтын энтузиастар тобы бар. . Баррикаданың екінші жағында жасанды интеллект дамуының қазіргі тенденцияларына күмәнмен қарайтын және алаңдаушылық білдіретін топ бар.

Екі топ арасындағы көпір жасанды интеллект зерттеушілері болып табылады, олар бір жағынан жасанды интеллект қоршаған шындыққа қалай оң әсер еткені туралы көптеген мысалдар келтіреді. Сонымен қатар, олар қол жеткізген жетістіктерге тоқтау әлі ерте екенін, ал орасан зор технологиялық секіріс көптеген қиындықтар мен үлкен жауапкершілікті әкелетінін түсінеді. Орталық Флорида университетінің докторы Озлем Гарибай басқаратын жасанды интеллект пен машиналық оқытуды зерттеушілердің халықаралық тобы осы көзқарастың айқын мысалы болып табылады. Әлемнің түкпір-түкпірінен келген 47 ғалым жазған 26 беттік басылымда зерттеу институттары, компаниялар мен корпорациялар модельдерін (және оларды пайдаланатын бағдарламалық жасақтаманы) қауіпсіз ету үшін шешуге тиіс алты мәселені анықтап, сипаттайды.

Иә, бұл жасанды интеллекттің болашағын түсіну үшін маңызды түсініктемелері бар маңызды ғылыми жұмыс. Кім қызықтырады, өз бетінше алады осы ғылыми баяндаманы оқыңыз және өз қорытындыларыңызды жасаңыз. Қарапайым сөзбен айтқанда, ғалымдар жасанды интеллекттің 6 өсиетін анықтады. Барлық AI әзірлемелері мен әрекеттері адамдарға және әлемге қауіпсіз болуы үшін оларға сәйкес келуі керек.

Дәл осы ғылыми жұмыстың негізінде жазылған мақаламда жасанды интеллект болуы және дамуы керек негізгі постулаттарды, заңдарды тұжырымдауға тырысамын. Иә, бұл менің жасанды интеллекттің дамуына қатысты ғалымдардың тұжырымдарын еркін түсіндіруім және оларды былайша айтқанда, библиялық нұсқада көрсету әрекеті. Бірақ құрметті ғалымдардың ғылыми еңбегімен сіздерді осылай таныстырғым келді.

Сондай-ақ қызықты: AI құру: Жарыста кім жетекші?

Бірінші заң: Адамның амандығы

Зерттеушілердің бірінші постулаты – жасанды интеллект жұмысын адамның әл-ауқатына бағыттау. «Адамдық құндылықтардың, парасаттылық пен этиканың» болмауына байланысты жасанды интеллект адамның әл-ауқатының айтарлықтай нашарлауына әкелетін әрекет етуі мүмкін. Мәселелер AI-ның адамгершілігінен жоғары қабілеттерінің нәтижесі болуы мүмкін (мысалы, AI адамдарды қаншалықты оңай жеңетіні - тек шахматта ғана емес), сонымен қатар AI өзі туралы ойламайтындығы, сондықтан біржақтылықтарды «сүзгілеу» мүмкін еместігі немесе айқын қателер.

Зерттеушілер жасанды интеллект технологияларына шамадан тыс сену адамдардың әл-ауқатына теріс әсер ететінін атап өтті. Жасанды интеллект алгоритмдерінің іс жүзінде қалай жұмыс істейтінін түсінбейтін қоғам оған шамадан тыс сенім артуға бейім немесе, керісінше, белгілі бір модель, атап айтқанда, чат-боттар арқылы жасалған мазмұнға теріс көзқараспен қарайды. Осы және басқа факторларды ескере отырып, Ғарибай командасы адамның әл-ауқатын болашақ AI-адам әрекеттестігінің орталығына қоюға шақырады.

Сондай-ақ оқыңыз: ChatGPT: қарапайым пайдаланушы нұсқаулығы

Екінші заң: Жауапкершілік

Жауапкершілік - бұл AI әлемінде біз машиналық оқытуды не үшін пайдаланатынымыз және AI үлгілері мен алгоритмдері қалай әзірленетіні және үйретілетіні контекстінде үнемі пайда болатын термин. Халықаралық топ жасанды интеллектті жобалау, дамыту және енгізу тек ізгі ниетпен жасалуы керек екенін атап көрсетеді.

Олардың пікірінше, жауапкершілікті тек техникалық тұрғыдан ғана емес, сонымен бірге құқықтық және этикалық тұрғыда да қарастырған жөн. Технологияны тек оның тиімділігі тұрғысынан ғана емес, оны пайдалану контекстінде де қарастыру қажет.

«Машинамен оқытудың озық әдістерін енгізу арқылы шешімнің қалай қабылданғанын және оған кім жауапты екенін түсіну маңыздырақ бола түсуде.” – деп жазады зерттеушілер.

Үшінші заң: Құпиялылық

Құпиялылық - бұл технология туралы кез келген дискурста бумеранг болатын тақырып. Әсіресе, әлеуметтік желілерде бәрі талқыланып жатқанда. Дегенмен, бұл жасанды интеллект үшін өте маңызды, өйткені ол дерекқорсыз болмайды. Ал мәліметтер базасы дегеніміз не?

Ғалымдар оларды «әлемге көзқарасымызды құрайтын негізгі құрылыс блоктарының абстракциясы» деп сипаттайды. Бұл блоктар әдетте қарапайым құндылықтар болып табылады: түстер, пішіндер, текстуралар, қашықтықтар, уақыт. Тар AI бір мақсатқа бағытталғанымен, мысалы, ысырманың берілген жарық қарқындылығында ашылу дәрежесі, жалпыға қолжетімді объективті деректерді пайдаланады, ал кеңірек қолданбаларда AI (мұнда, мысалы, Midjourney сияқты мәтіннен кескінге үлгілер, немесе ChatGPT сияқты тіл үлгілері адамдар туралы және жасаған деректерді пайдалана алады. Баспасөздегі мақалаларды, интернетте жарияланған кітаптарды, иллюстрациялар мен фотосуреттерді де атап өткен жөн. Жасанды интеллект алгоритмдері бәріне қол жеткізе алады, өйткені біз оларға өзіміз бердік. Әйтпесе, ол ештеңе білмейді және ешқандай сұраққа жауап бермейді.

Пайдаланушы деректері бұл деректер жиналатын адамдарға да, жасанды интеллект алгоритмдері жүзеге асырылатын жүйедегі адамдарға да түбегейлі әсер етеді.

Сондықтан, үшінші мәселе жеке өмірге қол сұғылмаушылықты кеңінен түсінуге және жалғыз қалу құқығы, өзіне қол жеткізуді шектеу құқығы, жеке өмірінің немесе бизнесінің құпиясын сақтау құқығы, жеке басын бақылау құқығы сияқты құқықтарды қамтамасыз етуге қатысты. ақпарат, яғни адамның жеке басын, даралығын және қадір-қасиетін қорғау құқығы. Мұның бәрі алгоритмдерге жазылуы керек, әйтпесе құпиялылық болмайды, ал AI алгоритмдері алаяқтық схемаларда, сондай-ақ қылмыстық құқық бұзушылықтарда қолданылуы мүмкін.

Сондай-ақ оқыңыз: ChatGPT пайдаланудың 7 тамаша тәсілі

Төртінші заң: Жоба құрылымы

Жасанды интеллект өте қарапайым және бір мақсатты болуы мүмкін, бірақ кең және көп тапсырмалы сипатқа ие үлкенірек модельдер жағдайында мәселе деректердің құпиялылығы ғана емес, сонымен қатар дизайн құрылымы болып табылады.

Мысалы, GPT-4, OpenAI-дің соңғы жасанды интеллект үлгісі, оның өлшемі мен AI әлеміне (және одан тысқары жерлерге) әсеріне қарамастан, толықтай ашық құжаттамаға ие емес. Яғни, әзірлеушілер үшін түпкілікті мақсаттар қандай, олар түпкілікті нәтижеде нені алғысы келетіні туралы түсінігіміз жоқ. Сондықтан біз осы AI моделін пайдаланумен байланысты тәуекелдерді толық бағалай алмаймыз. GPT-3, керісінше, 4chan форумының деректері бойынша дайындалған, сіз онымен араласқыңыз келмейтін модель. 4chan форумы - Интернеттегі ең қызықты құбылыстардың бірі. Бұл іс жүзінде ешқандай шеңбермен шектелмейтін абсолютті, толық анархияның мысалы. Дәл осы жерде Anonymous немесе LulzSec сияқты хакерлік топтар құрылды. Бұл көптеген танымал мемдердің көзі, даулы тақырыптарды талқылау және одан да даулы пікірлерді жариялау орны. Ағылшын тіліндегі сурет тақтасы «әзірге бұл заңды» деп атап өтсе де, 4chan кейде нәсілшіл, нацистік және сексистік мазмұнды қоса алғанда, бұқаралық ақпарат құралдарымен араласатынын ескерсек, бұл біршама күмәнді.

Профессор Ғарибайдың командасы жасанды интеллекттің әрбір моделінің нақты анықталған шеңберде жұмыс істегенін қалайды. AI өзара әрекеттесетін адамның әл-ауқатына ғана емес, сонымен қатар модельді пайдаланумен байланысты тәуекелдерді бағалау мүмкіндігіне байланысты. Кез келген жобаның құрылымы әртүрлі мәдени топтар мен мүдделі тараптардың қажеттіліктерін, құндылықтарын және тілектерін құрметтеуді қамтуы керек. AI құру, оқыту және дәл баптау процесі адамның әл-ауқатына бағытталуы керек, ал соңғы өнім - AI моделі - адам қауымдастығының өнімділігін арттыруға және жақсартуға бағытталуы керек. Тәуекелдерді анықтау мүмкін емес модельдер шектеулі немесе бақыланатын қолжетімділікке ие болуы керек. Олар адамзатқа қауіп төндірмей, керісінше адамның, жалпы қоғамның дамуына үлес қосуы керек.

Сондай-ақ оқыңыз: Twitter Илон Масктың қолында - қауіп немесе «жақсарту»?

Бесінші Заң: Басқару және тәуелсіз қадағалау

Жасанды интеллект алгоритмдері бар болғаны бір жылдың ішінде әлемді өзгертті. Bard by Google және Bing тұсаукесері Microsoft биржадағы екі алпауыттың да акцияларына айтарлықтай әсер етті. Айтпақшы, олар акциялардың фонында да бұл компаниялардың акцияларының өсуіне үлес қосты Apple. ChatGPT-ті мектеп оқушылары белсенді пайдалана бастады, олар онымен байланысады, оны тексереді және сұрақтар қояды. Ең бастысы, оның өздігінен білім алуы, қатесін түзететін қабілеті бар. Жасанды интеллект тіпті кейбір елдердің үкіметтерінде де жұмыс істей бастады. Бұл Румынияның премьер-министрі Николае Чуканың ісі виртуалды жалдады қоғамның қажеттіліктері туралы хабардар ететін көмекші. Яғни, жасанды интеллект біздің өмірімізде барған сайын маңызды рөл атқарады.

Жасанды интеллект, адам және қоршаған орта арасындағы үнемі өсіп келе жатқан өзара тәуелділікті ескере отырып, ғалымдар басқару органдарын құру және оның дамуына тәуелсіз бақылау жасау қажет деп санайды. Бұл органдар жасанды интеллекттің бүкіл өмірлік циклін бақылайтын болады: идеядан бастап әзірлеуге және іске асыруға дейін. Билік интеллекттің әртүрлі үлгілерін дұрыс анықтап, жасанды интеллект пен әлеуметтік өмірдің субъектілеріне қатысты істерді қарайтын болады. Яғни, жасанды интеллект сот істерінің, сондай-ақ сот істерінің нысанасына айналуы мүмкін. Дегенмен, әрине, ол жеке емес, оның әзірлеушілері.

Сондай-ақ оқыңыз: Neuralink туралы бәрі: Киберпанк ақылсыздықтың басталуы?

Алтыншы заң: Адам мен жасанды интеллекттің өзара әрекеттесуі

Жасанды интеллект бағдарламаларында әркім өзі үшін бірдеңе таба алады: мәтін құру, суреттердегі мазмұнды анықтау, сұрақтарға жауап беру, кескіндерді жасау, фотосуреттердегі адамдарды тану, деректерді талдау. Бұл бірнеше қолдану тек жасанды интеллектті құқықтық және этикалық стандарттарға бейімдеуге тырысатын адамдарды алаңдатпайды. Көптеген адамдар AI үлгілері еңбек нарығынан ығыстырылып кетуден қорқады. Өйткені жасанды интеллект алгоритмдері бір нәрсені тезірек, арзанырақ және адамнан да жақсырақ жасай алады. Сонымен қатар, өз жұмысында AI-ға сүйенетін адамдар бар, яғни жасанды интеллект бүгінде олар үшін таптырмас көмекші болып табылады.

Бірақ ғалымдардың айтқан зерттеулерінен адамдарды арзан жасанды жұмыс күшімен алмастыру әлі де алыс екені анық. Осыған қарамастан, олар қазірдің өзінде адамдар мен жасанды интеллект арасындағы өзара әрекеттестіктің қатаң иерархиясын орнату қажеттілігін талап етуде. Олардың пікірінше, адамдарды жасанды интеллекттен жоғары қою керек. Жасанды интеллект адамның танымдық қабілеттерін құрметтей отырып, оның эмоцияларын, әлеуметтік қарым-қатынастарын, идеяларын, жоспарлауын және объектілермен әрекеттесуін ескере отырып жасалуы керек. Яғни, барлық жағдайда жасанды интеллекттің үстінен тұрып, модель жасаған мінез-құлық пен мазмұнды бақылап, оған жауапты болуы керек. Қарапайым сөзбен айтқанда, тіпті ең дамыған AI адамға бағынуы керек және оны жасаушыға зиян келтірмеу үшін рұқсат етілген шеңберден шықпауы керек.

Сондай-ақ оқыңыз: Украина соғыс кезінде Starlink-ті қалай пайдаланады және бейімдейді

Қорытындылар

Иә, ғалымдар өз баяндамасында маңызды және жаңа ештеңе көрсетпеді деп біреу айтады. Бұл туралы бәрі көптен бері айтып келеді. Бірақ қазірдің өзінде AI-ны кейбір заңдар шеңберіне қою керек. GPT-4-ке жету - пышаққа соқыр қол созумен бірдей. Олар бізден негізгі ақпаратты жасырады. Жасанды интеллекттегі барлық әзірлемелер, атап айтқанда Open AI ұсынған ChatGPT жобасы маған кішкентай баланы тәрбиелеуді жиі еске түсіреді. Кейде бұл бөтен бала сияқты көрінеді. Иә, бөтен адам, бірақ ол әлі де үйренетін, қателесетін, кейде өзін дұрыс ұстамайтын, ашушаң, ата-анасымен ұрысып қалатын бала. Ол өте тез өсіп, дамитынына қарамастан.

Адамзат өзінің дамуына ілеспей, жағдай бақылаудан шығып кетуі мүмкін. Сондықтан адамзат қазірдің өзінде осының барлығын неліктен дамытып жатқанымызды түсінуі, түпкі мақсаттарды білуі, «жауапты ата-ана» болуы керек, өйткені әйтпесе «бала» өзінің «ата-анасын» жай ғана жоя алады.

Сондай-ақ оқыңыз: 

үлес
Yuri Svitlyk

Карпат тауларының ұлы, математиканың танылмаған генийі, «заңгер»Microsoft, практикалық альтруист, сол-оң

пікір қалдыру

Сіздің электрондық пошта мекенжайы емес жарияланады. Міндетті өрістер таңбаланған*