Root NationСтаттиТехнологияларOpenAI Project Q*: бұл не және жоба неге алаңдатады

OpenAI Project Q*: бұл не және жоба неге алаңдатады

-

Жұмбақ Q жобасы* OpenAI-дан сарапшыларды алаңдатуда. Ол шынымен адамзат үшін қауіпті болуы мүмкін бе? Ол туралы не белгілі? Өткен аптада Сэм Альтман жұмыстан босатылғаннан кейін ол және команда дерлік көшіп кетті Microsoft, содан кейін ол жұмыс орнына қайтып оралды (бұл туралы осында жаздық), OpenAI тағы да жаңалықтарда. Бұл жолы кейбір зерттеушілер адамзатқа қауіп төнуі мүмкін деп атайды. Иә, сіз дұрыс оқыдыңыз, бұл адамзатқа қауіп.

Технология әлеміндегі нағыз сілкініске Project Q* – жалпы жасанды интеллекттің (AGI) ашылмаған жобасы – Q-Star деп аталатын жоба себеп болды. Бұл жоба өзінің бастапқы сатысында болса да, ол AGI әзірлемелерінде шын мәнінде жаңашыл болып саналады. Дегенмен, кейбіреулер мұны адамзатқа қауіпті деп санайды.

OpenAI жобасы Q

Танымал OpenAI жасанды интеллект зертханасы әзірлеген құпия жасанды интеллект жобасы технология мен жалпы қоғамда төңкеріс жасау мүмкіндігіне ие. Бірақ бұл тәуекелдер туралы кейбір этикалық сұрақтарды да тудырады. Project Q* таңғаларлық мүмкіндіктері туралы егжей-тегжейлер пайда болған сайын, оның адамзаттың болашағы үшін нені білдіруі мүмкін екендігі туралы болжамдар көбейіп келеді.

Сондай-ақ қызықты: OpenAI тарихы: бұл не болды және компанияны алда не күтіп тұр

Жасанды жалпы интеллект (AGI) дегеніміз не?

Project Q* (Q-Star) төңірегіндегі дүрбелеңді түсіну үшін алдымен жасанды жалпы интеллект (AGI) концепциясы не туралы екенін түсінуге тырысайық. Қазіргі жасанды интеллект жүйелері шахмат ойнау немесе кескіндерді жасау сияқты тар, нақты тапсырмаларда жақсы болса да, жалпы жасанды интеллект көптеген салаларда адам деңгейінде үйренетін және ойлай алатын машиналарды білдіреді. Яғни, олар мектепте кішкентай балалар сияқты оқи алады, мысалы, математика, химия, биология негіздерін т.б.

Жалпы жасанды интеллект (AGI) - бұл әртүрлі мәселелерді шешу үшін осы әлеуетті үйрену және қолдану қабілеті бар адам интеллектін немесе мінез-құлқын гипотетикалық түрде еліктейтін машиналық интеллект түрі. AGI сонымен қатар күшті жасанды интеллект, толық жасанды интеллект немесе адам деңгейіндегі жасанды интеллект деп аталады. Жалпы AI әлсіз немесе тар АИ-ден ерекшеленеді, ол тек берілген параметрлер шеңберінде нақты немесе арнайы тапсырмаларды орындауға қабілетті. ZHI әртүрлі білім салаларындағы әртүрлі күрделі мәселелерді өз бетінше шеше алады.

OpenAI жобасы Q

Жасанды интеллект жасау DeepMind және Anthropic сияқты компаниялардың жасанды интеллект зерттеулерінің негізгі бағыты болып табылады. CSI ғылыми-фантастикалық әдебиетте өте танымал тақырып болып табылады және болашақ зерттеулерді қалыптастыруы мүмкін. Кейбіреулер UCI-ді жылдар немесе ондаған жылдар ішінде құруға болатынын айтады, ал басқалары бір ғасыр немесе одан да көп уақыт қажет болуы мүмкін деп санайды. Бірақ бұл ешқашан орындалмайды деп есептейтіндер бар. Кейбіреулер GPT-3-де URI-ның басталуын көрді, бірақ ол әлі де негізгі критерийлерге сәйкес келмейді.

Жасанды жалпы интеллект (AGI) құруды зерттеушілер жасанды интеллекттің киелі тұғыры, олардың қиялын ұзақ уақыт бойы жаулап алған теориялық мүмкіндік деп санайды. Сондықтан OpenAI Project Q* сияқты жобаның пайда болуы жасанды интеллект алгоритмдерін зерттеу әлемінде үлкен резонанс тудырды. Бұл жасанды интеллект адамдар сияқты, тіпті одан да жоғары болатын әлемге алғашқы қадамдар екенін бәрі түсінсе де.

- Жарнама -

Сондай-ақ қызықты: Барлығы туралы Microsoft Копилот: болашақ па, әлде бұрыс жол ма?

Project Q* дегеніміз не?

Q* жобасы әдеттегі алгоритм емес, себебі ол жасанды жалпы интеллект (AGI) үлгісіне жақындап келе жатқан жасанды интеллект үлгісі. Бұл ChatGPT-тен айырмашылығы, Project Q* басқа алгоритмдермен салыстырғанда жақсы ойлау және когнитивті дағдыларды көрсетеді. ChatGPT қазіргі уақытта көптеген нақты материалдарға негізделген сұрауларға жауап береді, бірақ AGI көмегімен AI моделі пайымдауды және өздігінен ойлау және түсіну қабілетін үйренеді. Жоба Q* оқу материалының бөлігі болмаған қарапайым математикалық есептерді шешуге қабілетті екені қазірдің өзінде белгілі. Бұл жағдайда кейбір зерттеушілер жалпы жасанды интеллект (AGI) құру жолындағы маңызды қадамды көреді. OpenAI AGI-ны адамдарға қарағанда ақылды жасанды интеллект жүйелері ретінде анықтайды.

OpenAI жобасы Q

Q* жобасының дамуын OpenAI бас ғалымы Илья Суцкевер басқарады, ал оның негізін зерттеушілер Якуб Пахоцкий мен Шимон Сидор дәлелдеген.

Алгоритмнің математикалық есептерді өз бетімен шешу мүмкіндігі, тіпті бұл есептер оқу деректерінің бөлігі болмаса да, жасанды интеллект саласындағы серпіліс болып саналады. Осы жобаға қатысты топтағы келіспеушіліктер OpenAI бас директоры Сэм Альтманның уақытша қызметінен кетуіне байланысты. Альтман жұмыстан босатылғанға дейін компанияның бір топ зерттеушісі директорлар кеңесіне адамзатқа қауіп төндіретін AI табылғаны туралы ескерткен хат жолдағаны белгілі. Project Q* алгоритмін талқылаған бұл хат Альтманның жұмыстан шығарылуына әкелген факторлардың бірі ретінде аталды. Дегенмен, Q* жобасының мүмкіндіктері және ол тудыруы мүмкін ықтимал тәуекелдер толық түсінілмейді, себебі егжей-тегжейлері белгісіз. Жалпы жұртшылыққа ештеңе жарияланған жоқ.

OpenAI жобасы Q

Негізінде, Project Q* қоршаған орта туралы алдын ала білімді талап етпей, дәстүрлі үлгілерден алшақтайтын, үлгісіз күшейтетін оқыту әдісі болып табылады. Оның орнына, ол марапаттар мен жазаларға негізделген әрекеттерді бейімдеп, тәжірибе арқылы үйренеді. Техникалық сарапшылар Project Q* адамның когнитивті қабілеттеріне ұқсас қабілеттерді меңгеру арқылы керемет мүмкіндіктерге ие болады деп санайды.

Дегенмен, зерттеушілер мен сыншыларды алаңдататын және технологияның нақты әлемде қолданылатын қолданбалары мен негізгі тәуекелдер туралы қорқыныштарын арттыратын жасанды интеллекттің жаңа үлгісінде ең әсерлі болатын осы мүмкіндік. Ғалымдар мен зерттеушілер неден сонша қорқады? Оны анықтап көрейік.

Сондай-ақ қызықты: Wi-Fi 6-ға қолдау көрсету үшін үй құрылғыларын қалай жаңартуға болады

Олар белгісізден қорқады

Адамдар әрқашан беймәлім нәрседен қорқады. Міне, адам болмысымыз, мінезіміз бен өмір салтымыздың ерекшелігі осы.

Технология әлемі Q* жобасы туралы 2023 жылдың қарашасында Reuters агенттігінен кейін білді хабарлады мүдделі OpenAI зерттеушілері жазған ішкі хат туралы. Хаттың мазмұны түсініксіз болды, бірақ ол Project Q* мүмкіндіктерін байыппен талдаған. Жоғарыда айтқанымдай, Сэм Альтманның отставкаға кетуіне дәл осы хат түрткі болды деген болжамдар да бар.

OpenAI жобасы Q

Бұл жарылғыш жаңалық Q* жобасының табиғатына қатысты әртүрлі гипотезаларды тудырды. Ғалымдар бұл AI үшін революциялық табиғи тіл үлгісі болуы мүмкін деп болжады. Жаңа алгоритмдердің өнертапқышы, оларды AI-ның басқа нысандары үшін жасайды немесе осы салада мүлдем басқа нәрсе.

Альтманның «орташа қызметкер» ретінде жалпы жасанды интеллект туралы арандатушылық пікірлері қазірдің өзінде жұмыс қауіпсіздігі және AI ықпалының тоқтаусыз кеңеюі туралы алаңдаушылық туғызды. Бұл жұмбақ алгоритм жасанды жалпы интеллект (AGI) дамуындағы маңызды кезең ретінде анықталған. Дегенмен, бұл белестің қымбат екенін бәрі түсінеді. Ал қазір әңгіме ақшада емес. Жаңа AI моделі уәде еткен когнитивті дағдылардың деңгейі белгісіздікпен бірге жүреді. OpenAI ғалымдары AI адам деңгейінде ойлау қабілетіне ие болады деп уәде береді. Ал бұл көп нәрсені біліп, оның салдарын болжай алмайтынымызды білдіреді. Неғұрлым белгісіз болса, соғұрлым оны бақылауға немесе түзетуге дайындалу қиынырақ. Яғни, жаңа алгоритм өзін-өзі жетілдіруге және дамытуға қабілетті. Біз мұны бір жерде көрдік ...

Сондай-ақ қызықты: Windows 12: Жаңа ОЖ қандай болады

- Жарнама -

Project Q мүмкіндіктері туралы таңғажайып мәліметтер*

Қосымша ақпарат пайда бола бастағанда, бұл көптеген зерттеушілерді таң қалдырды. Алғашқы белгілер Q* жобасының математикадан керемет қабілеті болған. Механикалық есептеулерді орындайтын калькулятордан айырмашылығы, Project Q* күрделі математикалық есептерді шешу үшін логика мен пайымдауды пайдалана алады. Бұл математикалық қабілет кең интеллекттің дамуына кеңес береді.

OpenAI жобасы Q

Типтік АИ-лерді оқыту үшін пайдаланылатын нақты деректер жиынтығынсыз Q* жобасының автономды оқытуы да алға жасалған үлкен қадам болады. Project Q* басқа дағдыларды меңгергені белгісіз. Бірақ оның математикалық қабілеті соншалықты таңқаларлық, олар тіпті тәжірибелі зерттеушілерді де шатастырады.

Сондай-ақ оқыңыз: Адам миы жобасы: адам миына еліктеу әрекеті

Q* жобасының үстемдікке жету жолы?

Бұл мәселеде оптимистік және пессимистік сценарийлер бар. Оптимистер Q* жобасы технологиялық серпіліске әкелетін ұшқын болуы мүмкін дейді. Жүйе рекурсивті түрде өзін-өзі жетілдіретіндіктен, оның табиғаттан тыс интеллектісі климаттың өзгеруінен бастап ауруларды бақылауға дейінгі адамзаттың ең маңызды мәселелерін шешуге көмектесе алады. Q* жобасы қызықсыз жұмысты автоматтандырып, бос уақытымызды басқа әрекеттерге босата алады.

OpenAI жобасы Q

Көптеген пессимистік нұсқалар болса да. Кейде олар өте орынды және белгілі бір мағынаға ие.

Жұмыс орындарын жоғалту

Технологияның дамуындағы жылдам өзгерістер адамдардың жеке бейімделуінен асып түсуі мүмкін. Бұл жаңа шындыққа бейімделу үшін қажетті дағдыларды немесе білімдерді ала алмайтын бір немесе бірнеше ұрпақтың жоғалуына әкеледі. Яғни, бұл өз кезегінде жұмыс орнын сақтай алатын адамдар аз болады деген сөз. Оның орнына машиналар, автоматтандырылған жүйелер және роботтар орындалады. Дегенмен, білікті мамандарға келгенде жауап соншалықты анық емес. Сонымен қатар, жасанды интеллект алгоритмдерін әзірлеумен байланысты жаңа мамандықтар пайда болуы мүмкін. Бірақ әлі де тәуекелдер бар және адамзаттың оларды елемеуге құқығы жоқ.

Бақыланбайтын қуаттың қаупі

Егер Q* жобасы сияқты күшті AI арам ниетті адамдардың қолына түссе, бұл адамзат үшін апатты салдарға әкелуі мүмкін. Тіпті ықтимал зиянды ниет болмаса да, Q* жобасының шешім қабылдау деңгейі оның қолданылуын мұқият бағалаудың маңызды маңыздылығын атап көрсете отырып, зиянды нәтижелерге әкелуі мүмкін.

Q* жобасы адам қажеттіліктері үшін нашар оңтайландырылған болса, ол кейбір ерікті көрсеткіштерді барынша арттыру мүмкіндігіне зиян келтіруі мүмкін. Немесе оның мемлекеттік қадағалау немесе репрессия үшін пайдаланылуы сияқты саяси өлшемі болуы мүмкін. Q* жобасының әсерін талдау төңірегінде ашық пікірталас ЖЖИ дамуының ықтимал сценарийлерін анықтауға көмектеседі.

Бізді «Адам мен машина» кездесуі күтіп тұр ма?

Голливуд өз фильмдерінде мұндай текетірестің көптеген сценарийлерін жасап қойған. Әйгілі SkyNet және мұндай жаңалықтың салдары бәріміздің есімізде. Мүмкін OpenAI зерттеушілері бұл фильмді қайта қарауы керек пе?

Адамзат сигналдар мен қиындықтарды қабылдап, не болуы мүмкін екеніне дайын болуы керек. Адам сияқты ойлауға қабілетті жасанды интеллект үлгісі бір күні біздің жауымызға айналуы мүмкін. Болашақта ғалымдар жағдайды қалай бақылауда ұстау керектігін нақты біледі деп дауласады. Бірақ машиналарға келетін болсақ, олардың адамдарды басып алуға тырысу мүмкіндігін толығымен жоққа шығаруға болмайды.

Сондай-ақ қызықты: Біз жасанды интеллект деп атайтындардың бәрі шын мәнінде жасанды интеллект емес. Мынаны білу керек

OpenAI неге үнсіз?

Q* жобасына жұртшылықтың қызығушылық танытқанына қарамастан, OpenAI басшылығы алгоритмнің ерекшеліктері туралы үндемей отыр. Бірақ ішкі ағып кету басымдықтар мен әзірлемелердің ашықтығына байланысты зертханада шиеленістің артып келе жатқанын көрсетеді. Көптеген OpenAI инсайдерлері Project Q* құруды қолдағанымен, сыншылар ашықтық кез келген бағамен ғылыми прогресті жеделдету үшін артқы орынға шықты деп санайды. Кейбір зерттеушілер мақсаттары міндетті түрде адами құндылықтар мен этикамен сәйкес келмейтін жүйелерге керемет күш беріледі деп алаңдайды. Бұл зерттеушілер қадағалау мен есеп беру туралы пікірталастар қауіпті түрде өшірілді деп санайды. Олар көбірек жариялауды және егжей-тегжейлерді қажет етеді.

OpenAI жобасы Q

Project Q* құрушылары ретінде OpenAI олардың қоғамның даму мүмкіндіктерін едәуір кеңейтетін немесе оны аяусыз жойып жіберетін технологиясы бар екенін түсінуі керек. Мұндай маңызды инновациялар халықтың сенімін арттыру үшін әлдеқайда ашықтыққа лайық. Машина жасындағы кез келген болжамшылар пайдамен қатар тәуекелдерді мұқият өлшеуі керек. Q* жобасының әзірлеушілері қоғамды біз ойлағаннан да ертерек келетін жалпы жасанды интеллекттің жаңа дәуіріне қауіпсіз бастау үшін жеткілікті даналық пен қамқорлық көрсетуі керек.

Жалпы жасанды интеллект адамзат үшін пайдалы және қауіпсіз болуы үшін оның қауіпсіз, этикалық және адамзат құндылықтары мен мақсаттарына сәйкес жұмыс істеуін қамтамасыз ету керек. Ол үшін тиісті нормативтік актілерді, стандарттарды, ережелер мен хаттамаларды әзірлеуді және енгізуді талап етеді, олар СІҚ-ның әрекеттері мен тәртібін бақылайтын және тежейтін болады. Сонымен қатар, адамзаттың жойылуына әкеп соғуы мүмкін қиянатпен, жазатайым оқиғалармен, үйлесімсіздіктермен, айла-шарғылармен және қақтығыстармен байланысты ықтимал қауіптер мен тәуекелдерді жою қажет. Бұл ретте инвесторлар мен Microsoft пайда әкелетін тауарлы өнімді асыға күту, бұл сөзсіз жауапкершілікпен әрекет ету қажеттілігіне қайшы келеді. Ақыл-парасат жеңіске жетсін деп тілейік.

Сондай-ақ оқыңыз: 

Yuri Svitlyk
Yuri Svitlyk
Карпат тауларының ұлы, математиканың танылмаған генийі, «заңгер»Microsoft, практикалық альтруист, сол-оң
- Жарнама -
Тіркелу
туралы хабарлау
қонақ

0 Пікірлер
Енгізілген шолулар
Барлық пікірлерді көру