Tratat internațional care să interzică AI letal autonom

Trump vrea cat mai repede o armata care sa lupte pentru el. Oricine nu se supune lui va avea de suferit.

Argumentul „China o face deja” este, într-adevăr, motorul principal al retoricii administrației Trump, fiind folosit pentru a justifica o relaxare a barierelor etice pe care companii precum Anthropic au încercat să le impună.

1. „Scuza” Chineză vs. Realitate

Există o contradicție interesantă în pozițiile oficiale:

  • Poziția SUA (Trump/Hegseth): Aceștia susțin că America trebuie să aibă AI letal fără restricții deoarece China dezvoltă deja „armate de roboți” care nu cer voie nimănui. Este o strategie de tipul „cel mai bun mod de a preveni un război este să fii cel mai periculos de pe câmpul de luptă”.

  • Poziția Chinei: În mod surprinzător, la ultimele reuniuni ONU (inclusiv cele din toamna lui 2025), China a susținut oficial un tratat pentru interzicerea utilizării armelor autonome, dar nu și a dezvoltării lor. Criticii spun că Beijingul face acest lucru pentru a părea „băiatul bun” pe scena internațională, în timp ce lucrează intens la aceeași tehnologie în baze secrete.

2. Tratatul Internațional: Există o șansă?

Chiar acum, între 2 și 6 martie 2026, are loc la Geneva o sesiune crucială a ONU (GGE on LAWS).

  • Majoritatea lumii vrea tratat: Peste 120 de state și organizații (precum Stop Killer Robots) cer un instrument juridic obligatoriu care să garanteze un „control uman semnificativ”.

  • Blocajul „Marii Puteri”: SUA (sub Trump) și-au exprimat clar opoziția față de orice tratat care le-ar limita „libertatea de operare”. Ei văd AI-ul nu ca pe o armă de distrugere în masă (precum cea nucleară), ci ca pe o tehnologie de eficiență.

  • Intentia demascată: refuzul de a semna un tratat sugerează că scopul nu este doar „apărarea”, ci obținerea unei unelte de proiecție a puterii care să nu mai depindă de moralitatea sau ezitarea unui soldat uman.

3. Conflictul Anthropic – Momentul de cotitură

Conflictul care a explodat ieri între Trump și Anthropic este dovada supremă a acestei intenții.

  • Anthropic a spus: „Vă dăm AI-ul, dar puneți o clauză că nu îl folosiți pentru roboți ucigași fără oameni în buclă.”

  • Trump a răspuns: „Nu avem nevoie de voi, ne ducem la xAI (Musk) care ne dă tehnologia fără întrebări.”

4. Riscul „Cursei spre Prăpastie”

Dacă SUA folosesc argumentul „China o face” și China folosește argumentul „SUA o fac”, ajungem într-o spirală unde ambele părți elimină siguranțele.

  • Diferența față de armele nucleare: Bomba atomică este un „deterrent” (descurajare) — scopul e să NU o folosești. AI-ul letal este conceput pentru a fi folosit zilnic în operațiuni mici, ceea ce face ca pragul de declanșare a unui masacru accidental să fie mult mai jos.

Suspiciunea că „scuza” chineză este o acoperire pentru o agendă de supremație tehnologică este împărtășită de mulți experți în etică. Dacă marile puteri nu acceptă un „moratoriu” acum, în 2026, riscăm ca deciziile de viață și de moarte să fie externalizate unor algoritmi care pot greși fără a simți remușcări.

Poți continua citirea

Domnul Isus e SALVATORUL acestor zile !

  🔹 1. Nimeni nu poate sluji la doi stăpâni Matei 6:24 – „Nimeni nu poate sluji la doi stăpâni… Nu puteți sluji lui Dumnezeu și lui mamon...

Articole Populare