இயந்திர கொலையாளியின் பேய் தொடர்கிறது. ஜனாதிபதி புடின் எதை நம்புகிறார்?
தொழில்நுட்பம்

இயந்திர கொலையாளியின் பேய் தொடர்கிறது. ஜனாதிபதி புடின் எதை நம்புகிறார்?

இராணுவ ரோபோக்களின் ஆதரவாளர்கள் (1) தானியங்கு ஆயுதங்கள் மனித உயிரைப் பாதுகாப்பதற்கான கூடுதல் விருப்பங்களை வழங்குகின்றன என்று வாதிடுகின்றனர். இயந்திரங்கள் வீரர்களை விட எதிரியை நெருங்கி, அச்சுறுத்தலை சரியாக மதிப்பிட முடியும். உணர்ச்சிகள் சில நேரங்களில் சரியான முடிவுகளை எடுக்கும் திறனை முடக்குகின்றன.

கொலையாளி ரோபோக்களின் ஆதரவாளர்கள் பலர் போர்களை இரத்தக்களரியாக மாற்றுவார்கள் என்று நம்புகிறார்கள், ஏனெனில் குறைவான வீரர்கள் இறப்பார்கள். ரோபோக்கள், பரிதாபம் உணரவில்லை என்றாலும், பீதி, கோபம், பழிவாங்கும் எண்ணம் போன்ற எதிர்மறை மனித உணர்வுகளுக்கு எதிர்ப்புத் தெரிவிக்கின்றன, இது பெரும்பாலும் போர்க் குற்றங்களுக்கு வழிவகுக்கும்.

மனித உரிமை ஆர்வலர்கள் கடந்த அரை நூற்றாண்டில் பொதுமக்கள் உயிரிழப்புகளில் பெரும் குறைப்புக்கு இராணுவம் வழிவகுத்தது என்ற வாதத்தைப் பயன்படுத்துகின்றனர், மேலும் இராணுவத்தின் ரோபோமயமாக்கல் போர்ச் சட்டங்களை இன்னும் கடுமையாகச் செயல்படுத்துவதற்கான ஒரு பொறிமுறையை அனுமதிக்கிறது. போர்ச் சட்டங்களுக்குக் கீழ்ப்படியும்படி கட்டாயப்படுத்தும் மென்பொருளுடன் இயந்திரங்கள் பொருத்தப்படும்போது அவை நெறிமுறையாக மாறும் என்று அவர்கள் கூறுகின்றனர்.

நிச்சயமாக, மிகவும் பிரபலமானவர்கள் உட்பட ஏராளமான மக்கள் இந்த கருத்தை பல ஆண்டுகளாக பகிர்ந்து கொள்ளவில்லை. ஏப்ரல் 2013 இல், (2) என்ற முழக்கத்தின் கீழ் ஒரு சர்வதேச பிரச்சாரம் தொடங்கப்பட்டது. அதன் கட்டமைப்பிற்குள், அரசு சாரா நிறுவனங்கள் தன்னாட்சி ஆயுதங்களைப் பயன்படுத்துவதற்கு முழுமையான தடையை கோருகின்றன. மே 2014 இல் ஜெனீவாவில் நடந்த ஐ.நா. ஆயுதக் குறைப்பு மாநாட்டில் பல நாடுகளைச் சேர்ந்த வல்லுநர்கள் இந்த தலைப்பைப் பற்றி விவாதிக்க முதலில் அமர்ந்தனர். சில மாதங்களுக்குப் பிறகு மனித உரிமைகள் கண்காணிப்பகம் மற்றும் ஹார்வர்ட் பல்கலைக்கழக விஞ்ஞானிகளால் வெளியிடப்பட்ட ஒரு அறிக்கை தன்னாட்சி பெற்றவை மிகவும் ஆபத்தானவை என்று கூறியது - அவர்கள் தங்கள் சொந்த இலக்குகளைத் தேர்ந்தெடுத்து மக்களைக் கொன்றனர். அதே நேரத்தில், யார் பொறுப்புக் கூற வேண்டும் என்பது தெளிவாகத் தெரியவில்லை.

2. "கொலையாளி ரோபோக்களை நிறுத்து" நடவடிக்கையின் ஒரு பகுதியாக ஆர்ப்பாட்டம்

சிறிய ட்ரோன்களின் கூட்டம் என்ன செய்ய முடியும்

கொலையாளி ரோபோக்கள் (ROU) பற்றிய சர்ச்சைகள் பல ஆண்டுகளாக நடந்து வருகின்றன, அவை மறைந்துவிடவில்லை. சமீபத்திய மாதங்களில் இராணுவ ரோபோக்களை நிறுத்துவதற்கான புதிய முயற்சிகள் மற்றும் இந்த வகையான புதிய திட்டங்களின் அறிக்கைகளின் அலைகளை கொண்டு வந்துள்ளன, அவற்றில் சில உண்மையான போர் நிலைமைகளில் கூட சோதிக்கப்படுகின்றன.

நவம்பர் 2017 இல், ஒரு வீடியோ காண்பிக்கப்படுகிறது மினி-ட்ரோன்களின் கொடிய திரள்கள் ., திகிலூட்டும் செயலில். பெருமளவிலான மற்றும் இயந்திரத் துப்பாக்கிகளைக் கொண்டு வேட்டையாடுபவர்களால் வீசப்படும் கனரக போர் இயந்திரங்கள், டாங்கிகள் அல்லது ராக்கெட்டுகள் இனி நமக்குத் தேவையில்லை என்பதை பார்வையாளர்கள் பார்த்திருக்கிறார்கள். பெர்க்லியில் செயற்கை நுண்ணறிவு பேராசிரியரான முன்னணி இயக்குனர் ஸ்டூவர்ட் ரஸ்ஸல் கூறுகிறார்:

-

கடந்த வசந்த காலத்தில் ஐம்பது பேராசிரியர்கள் உலகின் முன்னணி பல்கலைக்கழகங்கள், கொரியா இன்ஸ்டிடியூட் ஆஃப் அட்வான்ஸ்டு சயின்ஸ் அண்ட் டெக்னாலஜி (KAIST) மற்றும் அதன் கூட்டாளியான ஹன்வா சிஸ்டம்ஸ் ஆகியவற்றுக்கு மேல்முறையீட்டில் கையெழுத்திட்டுள்ளன. அவர்கள் பல்கலைக்கழகத்துடன் ஒத்துழைக்க மாட்டோம் மற்றும் KAIST விருந்தினர்களை நடத்த மாட்டோம் என்று அறிவித்தனர். காரணம் இரு நிறுவனங்களாலும் மேற்கொள்ளப்பட்ட "தன்னாட்சி ஆயுதங்கள்" கட்டுமானம். KAIST ஊடக அறிக்கைகளை மறுத்தது.

சிறிது காலத்திற்குப் பிறகு அமெரிக்காவில் 3 க்கும் மேற்பட்ட Google ஊழியர்கள் இராணுவத்திற்கான நிறுவனத்தின் பணிக்கு எதிர்ப்பு தெரிவித்தனர். ராணுவ ட்ரோன் வீடியோக்களில் உள்ள பொருள்கள் மற்றும் முகங்களை அடையாளம் காண AI ஐப் பயன்படுத்துவதை நோக்கமாகக் கொண்ட மேவன் என்ற குறியீட்டுப் பெயருடன் கூடிய அரசாங்கத் திட்டத்துடன் கூகுள் கூட்டு சேர்வதாக அவர்கள் கவலை தெரிவித்தனர். ஆக்கிரமிப்பு அல்ல, உயிரைக் காப்பாற்றுவதும், கடினமான வேலைகளில் இருந்து மக்களைக் காப்பாற்றுவதுமே மேவனின் குறிக்கோள் என்று நிறுவனத்தின் நிர்வாகம் கூறுகிறது. போராட்டக்காரர்கள் நம்பவில்லை.

போரின் அடுத்த பகுதி பிரகடனம் செயற்கை நுண்ணறிவு நிபுணர்கள், உட்பட. கூகுள் திட்டத்தில் வேலை மற்றும் எலோனா முஸ்கா. ரோபோக்களை உருவாக்க மாட்டோம் என்று உறுதியளிக்கிறார்கள். இந்த ஆயுதங்களை ஒழுங்குபடுத்துவதற்கும் மட்டுப்படுத்துவதற்கும் அரசாங்கங்கள் முயற்சிகளை முடுக்கிவிட வேண்டும் என்றும் அவர்கள் அழைப்பு விடுக்கின்றனர்.

அந்த அறிக்கை ஒரு பகுதியாக, "ஒரு மனித உயிரைப் பறிக்கும் முடிவை ஒரு இயந்திரத்தால் எடுக்கக்கூடாது" என்று கூறுகிறது. உலகின் படைகள் பல தானியங்கி சாதனங்களுடன் பொருத்தப்பட்டிருந்தாலும், சில சமயங்களில் அதிக அளவு சுயாட்சியுடன், பல வல்லுநர்கள் எதிர்காலத்தில் இந்த தொழில்நுட்பம் முற்றிலும் தன்னாட்சியாக மாறக்கூடும் என்று அஞ்சுகின்றனர், இது மனித ஆபரேட்டர் மற்றும் தளபதியின் ஈடுபாடு இல்லாமல் கொலை செய்ய அனுமதிக்கிறது.

வல்லுநர்கள் தன்னாட்சி கொலை இயந்திரங்கள் "அணு, இரசாயன மற்றும் உயிரியல் ஆயுதங்களை" விட மிகவும் ஆபத்தானவை என்று எச்சரிக்கின்றனர், ஏனெனில் அவை எளிதில் கட்டுப்பாட்டை மீறும். மொத்தத்தில், கடந்த ஆண்டு ஜூலை மாதம், ஃபியூச்சர் ஆஃப் லைஃப் இன்ஸ்டிடியூட் (எஃப்ஜிஐ) அனுசரணையில் ஒரு கடிதத்தில் 170 நிறுவனங்கள் மற்றும் 2464 தனிநபர்கள் கையெழுத்திட்டனர். 2019 இன் ஆரம்ப மாதங்களில், FLI உடன் இணைந்த மருத்துவ விஞ்ஞானிகள் குழு மீண்டும் செயற்கை நுண்ணறிவு (AI) கட்டுப்படுத்தப்பட்ட ஆயுதங்களை உருவாக்குவதைத் தடை செய்வதற்கான புதிய கடிதத்திற்கு அழைப்பு விடுத்தது.

இராணுவ "கொலையாளி ரோபோக்கள்" சாத்தியமான சட்ட ஒழுங்குமுறை மீது Gniewo இல் கடந்த ஆண்டு ஆகஸ்ட் UN கூட்டம் வெற்றிகரமாக முடிந்தது ... இயந்திரங்கள். அமெரிக்கா, ரஷ்யா மற்றும் இஸ்ரேல் உள்ளிட்ட நாடுகளின் குழு, இந்த ஆயுதங்களின் மீதான சர்வதேச தடையை அறிமுகப்படுத்துவதற்கான மேலதிக பணிகளைத் தடுத்தது (சில மரபுசார் ஆயுதங்களைப் பயன்படுத்துவதற்கான தடை அல்லது கட்டுப்பாடு பற்றிய வரைவு மாநாடு, CCW). இந்த நாடுகள் தன்னாட்சி மற்றும் ரோபோ ஆயுதங்களின் மேம்பட்ட அமைப்புகளில் தங்கள் பணிக்காக அறியப்படுவது தற்செயல் நிகழ்வு அல்ல.

ரஷ்யா போர் ரோபோக்களில் கவனம் செலுத்துகிறது

இராணுவ AI அமைப்புகள் மற்றும் போர் ரோபோக்கள் பற்றி ஜனாதிபதி விளாடிமிர் புடின் அடிக்கடி மேற்கோள் காட்டப்படுகிறார்:

-.

தன்னாட்சி ஆயுதங்களை உருவாக்குவது பற்றி வெளிப்படையாக பேசுகிறது. அதன் ஆயுதப் படைகளின் பொதுப் பணியாளர்களின் தலைவர் ஜெனரல் வலேரி ஜெராசிமோவ், சமீபத்தில் இராணுவ செய்தி நிறுவனமான Interfax-AVN இடம் ரோபோக்களின் பயன்பாடு எதிர்கால போர்களின் முக்கிய அம்சங்களில் ஒன்றாக இருக்கும் என்று கூறினார். ரஷ்யா முயற்சித்து வருவதாகவும் அவர் கூறினார் போர்க்களத்தை முழுமையாக தானியக்கமாக்குகிறது. இதே போன்ற கருத்துக்களை துணைப் பிரதமர் டிமிட்ரி ரோகோசின் மற்றும் பாதுகாப்பு அமைச்சர் செர்ஜி ஷோய்கு ஆகியோர் தெரிவித்தனர். பாதுகாப்பு மற்றும் பாதுகாப்பு தொடர்பான கூட்டமைப்பு கவுன்சில் குழுவின் தலைவர் விக்டர் பொண்டரேவ், ரஷ்யா வளர்ச்சியடைய பாடுபடுகிறது என்று கூறினார். ரோஜு தொழில்நுட்பங்கள்இது ட்ரோன் நெட்வொர்க்குகளை ஒற்றை நிறுவனமாக செயல்பட அனுமதிக்கும்.

30 களில் சோவியத் யூனியனில் முதல் டெலிடேங்க்கள் உருவாக்கப்பட்டன என்பதை நாம் நினைவில் கொண்டால் இது ஆச்சரியமல்ல. அவை இரண்டாம் உலகப் போரின் தொடக்கத்தில் பயன்படுத்தப்பட்டன. இன்று ரஷ்யாவும் உருவாக்குகிறது தொட்டி ரோபோக்கள் மேலும் மேலும் தன்னாட்சி ஆக.

புடினின் அரசு சமீபத்தில் சிரியாவிற்கு தனது சொந்தத்தை அனுப்பியது ஆளில்லா போர் வாகனம் யுரான்-9 (3) சாதனம் தரைக் கட்டுப்பாட்டு புள்ளிகளுடன் தொடர்பை இழந்தது, இடைநீக்க அமைப்பில் சிக்கல்கள் இருந்தன, மேலும் அதன் ஆயுதங்கள் சரியாக செயல்படவில்லை மற்றும் நகரும் இலக்குகளைத் தாக்கவில்லை. இது மிகவும் தீவிரமானதாக இல்லை, ஆனால் பலர் சிரிய துடைப்பான் ஒரு நல்ல போர் சோதனை என்று கருதுகின்றனர், இது ரஷ்யர்கள் இயந்திரத்தை மேம்படுத்த அனுமதிக்கும்.

இந்த ஆண்டு ஆகஸ்ட் மாதத்திற்குள் சர்வதேச விண்வெளி நிலையத்திற்கு இரண்டு ரோபோக்களை அனுப்பும் பூர்வாங்க திட்டத்திற்கு Roscosmos ஒப்புதல் அளித்துள்ளது. ஃபெடோர் (4) ஆளில்லா ஒன்றியத்தில். ஒரு சுமை போல் இல்லை, ஆனால். ரோபோகாப் திரைப்படத்தைப் போலவே, ஃபெடோர் ஒரு ஆயுதத்தைப் பயன்படுத்துகிறார் மற்றும் துப்பாக்கிச் சூடு பயிற்சிகளின் போது கொடிய துப்பாக்கிச் சூட்டைக் காட்டுகிறார்.

கேள்வி என்னவென்றால், விண்வெளியில் இருக்கும் ரோபோ ஏன் ஆயுதம் ஏந்தியிருக்கும்? இந்த விஷயம் நிலத்தடி விண்ணப்பங்களில் மட்டும் இல்லை என்ற சந்தேகம் உள்ளது. இதற்கிடையில் பூமியில், ரஷ்ய ஆயுத உற்பத்தியாளர் கலாஷ்னிகோவ் ஒரு காட்சிப்படுத்தலைக் காட்டினார் ரோபோ இகோரெக்இது நிறைய சிரிப்பை ஏற்படுத்திய போதிலும், நிறுவனம் தன்னாட்சி போர் வாகனங்களில் தீவிரமாக வேலை செய்கிறது என்பதை சமிக்ஞை செய்கிறது. ஜூலை 2018 இல், கலாஷ்னிகோவ் "சுடுவது அல்லது சுட வேண்டாம்" என்ற முடிவுகளை எடுக்க அவர் பயன்படுத்தும் ஆயுதத்தை உருவாக்குவதாக அறிவித்தார்.

இந்த தகவலுடன் ரஷியன் துப்பாக்கி ஏந்திய Digtyarev ஒரு சிறிய உருவாக்கப்பட்டது என்று அறிக்கைகள் சேர்க்க வேண்டும் தன்னாட்சி தொட்டி Nerekht அதன் இலக்கை நோக்கி அமைதியாக நகர்ந்து பின்னர் மற்ற அல்லது முழு கட்டிடங்களையும் அழிக்க சக்திவாய்ந்த சக்தியுடன் வெடிக்கும். அத்துடன் தொட்டி T14 இராணுவம் , ரஷ்ய ஆயுதப் படைகளின் பெருமை, சாத்தியமான ரிமோட் கண்ட்ரோல் மற்றும் ஆளில்லா ஓட்டுதலுக்காக வடிவமைக்கப்பட்டது. T-14 ஐ முழு தன்னாட்சி கவச வாகனமாக மாற்ற ரஷ்ய இராணுவ பொறியாளர்கள் பணியாற்றி வருவதாக ஸ்புட்னிக் கூறுகிறார்.

ஆட்சேபனை உத்தரவு

அமெரிக்க இராணுவமே அவர்களின் ஆயுதங்களின் சுயாட்சியின் அளவிற்கு தெளிவான வரம்பை விதித்துள்ளது. 2012 ஆம் ஆண்டில், அமெரிக்க பாதுகாப்புத் துறை உத்தரவு 3000.09 ஐ வெளியிட்டது, இது ஆயுதம் ஏந்திய ரோபோக்களின் செயல்களை எதிர்க்கும் உரிமை மனிதர்களுக்கு இருக்க வேண்டும் என்று கூறுகிறது. (சில விதிவிலக்குகள் இருக்கலாம் என்றாலும்). இந்த உத்தரவு அமலில் உள்ளது. பென்டகனின் தற்போதைய கொள்கை என்னவென்றால், ஆயுதங்களைப் பயன்படுத்துவதில் தீர்க்கமான காரணி எப்போதும் ஒரு நபராக இருக்க வேண்டும், அத்தகைய தீர்ப்பு இருக்க வேண்டும். போர் விதிகளுக்கு இணங்குகிறது.

அமெரிக்கர்கள் பல தசாப்தங்களாக பறக்கும், பிரிடேட்டர், ரீப்பர் மற்றும் பல சூப்பர் மெஷின்களைப் பயன்படுத்தி வந்தாலும், அவை தன்னாட்சி மாதிரிகள் இல்லை மற்றும் இல்லை. அவை ஆபரேட்டர்களால் ரிமோட் மூலம் கட்டுப்படுத்தப்படுகின்றன, சில நேரங்களில் பல ஆயிரம் கிலோமீட்டர் தொலைவில் இருந்து. இந்த வகை இயந்திரங்களின் சுயாட்சி பற்றிய சூடான விவாதம் முன்மாதிரியின் முதல் காட்சியுடன் தொடங்கியது. ட்ரோன் X-47B (5), இது சுதந்திரமாக பறந்தது மட்டுமல்லாமல், ஒரு விமானம் தாங்கி கப்பலில் இருந்து புறப்பட்டு, அதில் தரையிறங்கி காற்றில் எரிபொருள் நிரப்பவும் முடியும். மனித தலையீடு இல்லாமல் சுடுவது அல்லது குண்டு வீசுவது என்பதும் இதன் பொருள். இருப்பினும், திட்டம் இன்னும் சோதனை மற்றும் மதிப்பாய்வில் உள்ளது.

5. அமெரிக்க விமானம் தாங்கி கப்பலில் ஆளில்லா X-47B சோதனைகள்

2003 இல், பாதுகாப்புத் துறை சிறிய தொட்டி போன்ற ரோபோவை பரிசோதிக்கத் தொடங்கியது. SPOES ஒரு இயந்திர துப்பாக்கி பொருத்தப்பட்ட. 2007 இல் அவர் ஈராக்கிற்கு அனுப்பப்பட்டார். இருப்பினும், ரோபோ ஒழுங்கற்ற முறையில் தனது துப்பாக்கியை நகர்த்தத் தொடங்கிய பிறகு நிரல் முடிந்தது. இதன் விளைவாக, அமெரிக்க இராணுவம் பல ஆண்டுகளாக ஆயுதமேந்திய தரை ரோபோக்கள் பற்றிய ஆராய்ச்சியை கைவிட்டது.

அதே நேரத்தில், அமெரிக்க இராணுவம் 20 இல் $ 2014 மில்லியனில் இருந்து 156 இல் $ 2018 மில்லியனாக தனது நடவடிக்கைகளுக்கான செலவினத்தை அதிகரித்துள்ளது. 2019 ஆம் ஆண்டில், இந்த பட்ஜெட் ஏற்கனவே $327 மில்லியனாக உயர்ந்துள்ளது. இது ஒரு சில ஆண்டுகளில் 1823% ஒட்டுமொத்த அதிகரிப்பு ஆகும். 2025 ஆம் ஆண்டிலேயே, அமெரிக்க இராணுவம் போர்க்களமாக இருக்கலாம் என்று நிபுணர்கள் கூறுகின்றனர் மனிதர்களை விட ரோபோ வீரர்கள் அதிகம்.

சமீபகாலமாக அமெரிக்க ராணுவம் பல சர்ச்சைகளை ஏற்படுத்தி அறிவித்தது ATLAS திட்டம் () - தானியங்கி. ஊடகங்களில், இது மேற்கூறிய உத்தரவு 3000.09ஐ மீறுவதாகக் கருதப்பட்டது. எவ்வாறாயினும், முடிவெடுக்கும் சுழற்சியில் இருந்து ஒரு நபரை விலக்குவது கேள்விக்குரியது அல்ல என்று அமெரிக்க இராணுவம் மறுத்து உறுதியளிக்கிறது.

AI சுறாக்கள் மற்றும் பொதுமக்களை அங்கீகரிக்கிறது

இருப்பினும், தன்னாட்சி ஆயுதங்களின் பாதுகாவலர்கள் புதிய வாதங்களைக் கொண்டுள்ளனர். பேராசிரியர். ஜார்ஜியா இன்ஸ்டிடியூட் ஆப் டெக்னாலஜியின் ரோபோட்டிஸ்ட் ரொனால்ட் ஆர்கின் தனது வெளியீடுகளில் இவ்வாறு கூறுகிறார். நவீன போரில், பொதுமக்கள் உயிரிழப்பைத் தவிர்ப்பதற்கு அறிவார்ந்த ஆயுதங்கள் அவசியம், ஏனெனில் இயந்திர கற்றல் நுட்பங்கள் போராளிகள் மற்றும் பொதுமக்கள் மற்றும் முக்கியமான மற்றும் முக்கியமற்ற இலக்குகளை வேறுபடுத்துவதற்கு திறம்பட உதவும்.

அத்தகைய AI திறன்களுக்கு உதாரணம் ஆஸ்திரேலிய கடற்கரைகளில் ரோந்து செல்வது. ட்ரோன்கள் லிட்டில் ரிப்பர்சிட்னி தொழில்நுட்ப பல்கலைக்கழகத்தால் உருவாக்கப்பட்ட ஷார்க்ஸ்பாட்டர் அமைப்புடன் பொருத்தப்பட்டுள்ளது. இந்த அமைப்பு தானாகவே சுறாக்களுக்கான தண்ணீரை ஸ்கேன் செய்து, பாதுகாப்பற்ற ஒன்றைக் கண்டால் ஆபரேட்டரை எச்சரிக்கும். (6) இது சுறாக்களிடமிருந்து வேறுபடுத்துவதற்காக நீரில் உள்ள மக்கள், டால்பின்கள், படகுகள், சர்ப்போர்டுகள் மற்றும் பொருட்களை அடையாளம் காண முடியும். இது சுமார் பதினாறு வெவ்வேறு இனங்களை அதிக துல்லியத்துடன் கண்டறிந்து அடையாளம் காண முடியும்.

6. ஷார்க்ஸ்பாட்டர் அமைப்பில் அங்கீகரிக்கப்பட்ட சுறாக்கள்

இந்த மேம்பட்ட இயந்திர கற்றல் முறைகள் வான்வழி உளவுத்துறையின் துல்லியத்தை 90%க்கும் அதிகமாக அதிகரிக்கின்றன. ஒப்பிடுகையில், இதேபோன்ற சூழ்நிலையில் ஒரு மனித ஆபரேட்டர் வான்வழி புகைப்படங்களில் உள்ள 20-30% பொருட்களை துல்லியமாக அங்கீகரிக்கிறார். கூடுதலாக, ஒரு அலாரத்திற்கு முன்பாக அடையாளம் இன்னும் ஒரு மனிதனால் சரிபார்க்கப்படுகிறது.

போர்க்களத்தில், ஆபரேட்டர், திரையில் படத்தைப் பார்க்கும்போது, ​​தரையில் இருப்பவர்கள் தங்கள் கைகளில் AK-47 களைக் கொண்ட போராளிகளா அல்லது, எடுத்துக்காட்டாக, பைக் கொண்ட விவசாயிகளா என்பதை தீர்மானிக்க முடியாது. மக்கள் குறிப்பாக மன அழுத்த சூழ்நிலைகளில் "அவர்கள் பார்க்க விரும்புவதைப் பார்க்க" முனைகிறார்கள் என்று ஆர்கின் குறிப்பிடுகிறார். இந்த விளைவு 1987 இல் யுஎஸ்எஸ் வின்சென்ஸால் ஈரானிய விமானத்தை தற்செயலாக வீழ்த்தியது. நிச்சயமாக, அவரது கருத்துப்படி, AI-கட்டுப்படுத்தப்பட்ட ஆயுதங்கள் தற்போதைய "ஸ்மார்ட் குண்டுகளை" விட சிறந்ததாக இருக்கும், அவை உண்மையில் உணர்வுபூர்வமானவை அல்ல. கடந்த ஆகஸ்ட் மாதம், யேமனில் பள்ளி மாணவர்கள் நிரம்பிய பேருந்தில் சவுதி லேசர் ஏவுகணை ஒன்று மோதி நாற்பது குழந்தைகளைக் கொன்றது.

"ஒரு பள்ளி பேருந்தில் சரியாக பெயரிடப்பட்டிருந்தால், அதை ஒரு தன்னாட்சி அமைப்பில் அடையாளம் காண்பது ஒப்பீட்டளவில் எளிதானது" என்று பிரபல இயக்கவியலில் ஆர்கின் வாதிடுகிறார்.

இருப்பினும், இந்த வாதங்கள் தானியங்கி கொலையாளிகளுக்கு எதிராக பிரச்சாரகர்களை நம்பவைப்பதாக தெரியவில்லை. கொலையாளி ரோபோக்களின் அச்சுறுத்தலுக்கு கூடுதலாக, மற்றொரு முக்கியமான சூழ்நிலையை கணக்கில் எடுத்துக்கொள்ள வேண்டும். ஒரு "நல்ல" மற்றும் "கவனிப்பு" அமைப்பு கூட மிகவும் மோசமான நபர்களால் ஹேக் செய்யப்பட்டு கைப்பற்றப்படலாம். இராணுவ உபகரணங்களைப் பாதுகாப்பதற்கான அனைத்து வாதங்களும் அவற்றின் சக்தியை இழக்கின்றன.

கருத்தைச் சேர்