3 оны тавдугаар сарын 2024-ны Баасан гараг

ширээний v4.2.1

Root NationМэдээ мэдээлэлМэдээллийн технологийн мэдээСупер ухаалаг хиймэл оюун ухааныг удирдах боломжгүй болно

Супер ухаалаг хиймэл оюун ухааныг удирдах боломжгүй болно

-

Хиймэл оюун ухаан хүн төрөлхтнийг түлхэн унагах санаа олон арван жилийн турш маргаантай байсан бөгөөд 2021 оны -р сард эрдэмтэд бид өндөр түвшний компьютерийн супер оюун ухааныг удирдаж чадах эсэх талаар дүгнэлтээ гаргасан. Хариулах уу? Бараг л үгүй.

Асуудал нь хүний ​​ойлголтоос хол давсан супер оюун ухааныг удирдахын тулд бидний дүн шинжилгээ хийх боломжтой супер оюун ухааныг загварчлах шаардлагатай болно. Гэхдээ бид үүнийг ойлгож чадахгүй бол ийм симуляцийг бий болгох боломжгүй юм.

Хиймэл оюун ухаан (AI) ямар хувилбараар гарч ирэхийг ойлгохгүй бол "хүнд хор хөнөөл учруулахгүй" гэх мэт дүрмийг бий болгох боломжгүй гэж 2021 оны баримт бичгийн зохиогчид үзэж байна. Компьютерийн систем манай программистуудын чадавхаас давсан түвшинд ажиллаж эхэлмэгц бид хязгаар тогтоох боломжгүй болно.

Хиймэл оюун

Судлаачид "Супер тагнуул нь "робот ёс зүй" гэсэн тугийн дор ихэвчлэн судлагддагаас тэс өөр асуудал юм" гэж бичжээ. "Энэ нь супер оюун ухаан нь олон талт учраас хүн төрөлхтөнд үл ойлгогдох зорилгод хүрэхийн тулд янз бүрийн нөөцийг дайчлах чадвартай байдаг, тэр ч байтугай удирдаж болохуйц чадвартай байдаг."

Багийн үндэслэлийн нэг хэсэг нь үүнээс үүдэлтэй зогсолтын асуудлууд, 1936 онд Алан Тюринг санал болгосон. Асуудал нь компьютерийн программ дүгнэлт хийж, хариулах уу (мөн зогсох уу) эсвэл хариултыг олох гэж үүрд зогсох уу гэдгийг тодорхойлох явдал юм.

Тюринг тусламжаар нотолсон ухаалаг математик, Бид үүнийг зарим тодорхой программуудын хувьд мэдэж болох ч, хэзээ нэгэн цагт бичиж болох боломжит програм бүрийн хувьд үүнийг мэдэх боломжийг бидэнд олгох арга замыг олох нь логикийн хувьд боломжгүй юм. Энэ нь биднийг супер ухаалаг төлөвт бүх боломжит компьютерийн программуудыг санах ойд нэгэн зэрэг хадгалах боломжтой хиймэл оюун ухаан руу буцаан авчирдаг.

Мөн сонирхолтой:

Жишээлбэл, хиймэл оюун ухааныг хүмүүст хор хөнөөл учруулж, дэлхийг сүйрүүлэхийг зогсоохын тулд бичсэн аливаа програм нь дүгнэлтэд хүрч болно (мөн зогсоох) ч байж болно - энэ нь математикийн хувьд аль ч тохиолдолд туйлын тодорхой байх боломжгүй, энэ нь түүнийг хязгаарлах боломжгүй гэсэн үг юм. Герман дахь Макс Планкийн хүний ​​хөгжлийн хүрээлэнгийн компьютер судлаач Ияд Рахван "Энэ нь үндсэндээ саатуулах алгоритмыг ашиглах боломжгүй болгож байна" гэж нэгдүгээр сард хэлжээ.

Ямар ч алгоритм бүрэн итгэлтэй байж чадахгүй байгаа хиймэл оюун ухааны ёс зүй, дэлхийг сүйрүүлэхийг хориглохыг заах өөр нэг хувилбар бол супер оюун ухааны чадварыг хязгаарлах явдал юм. Жишээлбэл, энэ нь интернетийн хэсэг эсвэл зарим сүлжээнээс таслагдах болно.

Саяхны нэгэн судалгааны зохиогчид энэ санааг мөн үгүйсгэж, энэ нь хиймэл оюун ухааны цар хүрээг хязгаарлана гэж үзэж байгаа бөгөөд хэрэв бид үүнийг хүний ​​чадвараас давсан асуудлыг шийдвэрлэхэд ашиглахгүй юм бол яагаад үүнийг бий болгох ёстой гэж тэд хэлж байна.

Хиймэл оюун

Хэрэв бид хиймэл оюун ухааныг хөгжүүлэх гэж байгаа бол бидний хяналтаас гадуур супер оюун ухаан хэзээ гарч ирэхийг мэдэхгүй байж магадгүй. Энэ нь бид хаашаа явж байгаа талаар нухацтай асуулт асууж эхлэх хэрэгтэй гэсэн үг юм.

Макс Планкийн Хүний хөгжлийн хүрээлэнгийн компьютерийн эрдэмтэн Мануэл Кебриан "Дэлхийг жолоодож буй супер ухаант машин нь шинжлэх ухааны уран зөгнөлт мэт сонсогддог" гэж хэлжээ. Гэхдээ зарим чухал ажлыг бие даан гүйцэтгэдэг машинууд аль хэдийн байдаг бол програмистууд үүнийг хэрхэн сурснаа бүрэн ойлгодоггүй.

Тиймээс энэ нь хэзээ нэгэн цагт хяналтгүй болж, хүн төрөлхтөнд аюултай болж чадах уу гэсэн асуулт гарч ирнэ...

Мөн уншина уу:

Эх сурвалжшинжлэх ухаан
Бүртгүүлэх
тухай мэдэгдэх
зочин

0 Сэтгэгдэл
Суулгасан тойм
Бүх сэтгэгдлийг харах