Хиймэл оюун ухаан хүн төрөлхтнийг түлхэн унагах санаа олон арван жилийн турш маргаантай байсан бөгөөд 2021 оны -р сард эрдэмтэд бид өндөр түвшний компьютерийн супер оюун ухааныг удирдаж чадах эсэх талаар дүгнэлтээ гаргасан. Хариулах уу? Бараг л үгүй.
Асуудал нь хүний ойлголтоос хол давсан супер оюун ухааныг удирдахын тулд бидний дүн шинжилгээ хийх боломжтой супер оюун ухааныг загварчлах шаардлагатай болно. Гэхдээ бид үүнийг ойлгож чадахгүй бол ийм симуляцийг бий болгох боломжгүй юм.
Хиймэл оюун ухаан (AI) ямар хувилбараар гарч ирэхийг ойлгохгүй бол "хүнд хор хөнөөл учруулахгүй" гэх мэт дүрмийг бий болгох боломжгүй гэж 2021 оны баримт бичгийн зохиогчид үзэж байна. Компьютерийн систем манай программистуудын чадавхаас давсан түвшинд ажиллаж эхэлмэгц бид хязгаар тогтоох боломжгүй болно.
Судлаачид "Супер тагнуул нь "робот ёс зүй" гэсэн тугийн дор ихэвчлэн судлагддагаас тэс өөр асуудал юм" гэж бичжээ. "Энэ нь супер оюун ухаан нь олон талт учраас хүн төрөлхтөнд үл ойлгогдох зорилгод хүрэхийн тулд янз бүрийн нөөцийг дайчлах чадвартай байдаг, тэр ч байтугай удирдаж болохуйц чадвартай байдаг."
Багийн үндэслэлийн нэг хэсэг нь үүнээс үүдэлтэй зогсолтын асуудлууд, 1936 онд Алан Тюринг санал болгосон. Асуудал нь компьютерийн программ дүгнэлт хийж, хариулах уу (мөн зогсох уу) эсвэл хариултыг олох гэж үүрд зогсох уу гэдгийг тодорхойлох явдал юм.
Тюринг тусламжаар нотолсон ухаалаг математик, Бид үүнийг зарим тодорхой программуудын хувьд мэдэж болох ч, хэзээ нэгэн цагт бичиж болох боломжит програм бүрийн хувьд үүнийг мэдэх боломжийг бидэнд олгох арга замыг олох нь логикийн хувьд боломжгүй юм. Энэ нь биднийг супер ухаалаг төлөвт бүх боломжит компьютерийн программуудыг санах ойд нэгэн зэрэг хадгалах боломжтой хиймэл оюун ухаан руу буцаан авчирдаг.
Мөн сонирхолтой:
- OpenAI нь командуудыг програмын код болгон хувиргах хиймэл оюун ухаанд заажээ
- Хиймэл оюун ухаан нь таталцлын долгионыг хайх болно
Жишээлбэл, хиймэл оюун ухааныг хүмүүст хор хөнөөл учруулж, дэлхийг сүйрүүлэхийг зогсоохын тулд бичсэн аливаа програм нь дүгнэлтэд хүрч болно (мөн зогсоох) ч байж болно - энэ нь математикийн хувьд аль ч тохиолдолд туйлын тодорхой байх боломжгүй, энэ нь түүнийг хязгаарлах боломжгүй гэсэн үг юм. Герман дахь Макс Планкийн хүний хөгжлийн хүрээлэнгийн компьютер судлаач Ияд Рахван "Энэ нь үндсэндээ саатуулах алгоритмыг ашиглах боломжгүй болгож байна" гэж нэгдүгээр сард хэлжээ.
Ямар ч алгоритм бүрэн итгэлтэй байж чадахгүй байгаа хиймэл оюун ухааны ёс зүй, дэлхийг сүйрүүлэхийг хориглохыг заах өөр нэг хувилбар бол супер оюун ухааны чадварыг хязгаарлах явдал юм. Жишээлбэл, энэ нь интернетийн хэсэг эсвэл зарим сүлжээнээс таслагдах болно.
Саяхны нэгэн судалгааны зохиогчид энэ санааг мөн үгүйсгэж, энэ нь хиймэл оюун ухааны цар хүрээг хязгаарлана гэж үзэж байгаа бөгөөд хэрэв бид үүнийг хүний чадвараас давсан асуудлыг шийдвэрлэхэд ашиглахгүй юм бол яагаад үүнийг бий болгох ёстой гэж тэд хэлж байна.
Хэрэв бид хиймэл оюун ухааныг хөгжүүлэх гэж байгаа бол бидний хяналтаас гадуур супер оюун ухаан хэзээ гарч ирэхийг мэдэхгүй байж магадгүй. Энэ нь бид хаашаа явж байгаа талаар нухацтай асуулт асууж эхлэх хэрэгтэй гэсэн үг юм.
Макс Планкийн Хүний хөгжлийн хүрээлэнгийн компьютерийн эрдэмтэн Мануэл Кебриан "Дэлхийг жолоодож буй супер ухаант машин нь шинжлэх ухааны уран зөгнөлт мэт сонсогддог" гэж хэлжээ. Гэхдээ зарим чухал ажлыг бие даан гүйцэтгэдэг машинууд аль хэдийн байдаг бол програмистууд үүнийг хэрхэн сурснаа бүрэн ойлгодоггүй.
Тиймээс энэ нь хэзээ нэгэн цагт хяналтгүй болж, хүн төрөлхтөнд аюултай болж чадах уу гэсэн асуулт гарч ирнэ...
Мөн уншина уу:
- Хиймэл оюун ухаан нь Пикассогийн зурсан зургийг хуулбарлаж чадсан
- Хиймэл оюун ухаан нь зам тээврийн осол гарахаас өмнө урьдчилан таамаглахад тусална