AI ಗೆ ನಿಯಂತ್ರಣದ ಅಗತ್ಯವಿದೆ, ಆದರೆ ಯಾವ ರೀತಿಯ ಮತ್ತು ಎಷ್ಟು?

AI ಗೆ ನಿಯಂತ್ರಣದ ಅಗತ್ಯವಿದೆ, ಆದರೆ ಯಾವ ರೀತಿಯ ಮತ್ತು ಎಷ್ಟು?

ಬಹುಶಃ “ಟರ್ಮಿನೇಟರ್” ಫಿಲ್ಮ್‌ಗಳಲ್ಲಿನ ಕೊಲೆಗಾರ ರೋಬೋಟ್‌ಗಳಿಂದ ಅತ್ಯಂತ ಪ್ರಸಿದ್ಧವಾದ ಅಪಾಯವು ಸಾಕಾರಗೊಂಡಿದೆ-AI ತನ್ನ ಮಾನವ ಸೃಷ್ಟಿಕರ್ತರ ವಿರುದ್ಧ ತಿರುಗುತ್ತದೆ ಎಂಬ ಕಲ್ಪನೆ. ತನ್ನದೇ ಆದ ಸೃಷ್ಟಿಯ ಮೇಲೆ ನಿಯಂತ್ರಣವನ್ನು ಕಳೆದುಕೊಳ್ಳುವ ಹಬ್ರಿಸ್ಟಿಕ್ ಆವಿಷ್ಕಾರಕನ ಕಥೆಯು ಶತಮಾನಗಳಷ್ಟು ಹಳೆಯದು. ಆಧುನಿಕ ಯುಗದ ಜನರು, ವೆಂಚರ್ ಕ್ಯಾಪಿಟಲಿಸ್ಟ್ ಆಗಿರುವ ಕ್ರಿಸ್ ಡಿಕ್ಸನ್, “ಬಾಲ್ಯದಿಂದ ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆಗೆ ಭಯಪಡಲು ಹಾಲಿವುಡ್‌ನಿಂದ ತರಬೇತಿ ಪಡೆದಿದ್ದಾರೆ” ಎಂದು ಗಮನಿಸುತ್ತಾರೆ. ಈ ಪ್ರಬಂಧದ ಒಂದು ಆವೃತ್ತಿಯು ಮಾನವೀಯತೆಗೆ ಅಸ್ತಿತ್ವವಾದದ ಅಪಾಯಗಳ ಮೇಲೆ ಕೇಂದ್ರೀಕರಿಸುತ್ತದೆ (ಅಥವಾ “ಎಕ್ಸ್-ಅಪಾಯಗಳು”) ಇದು ಒಂದು ದಿನ AI ನಿಂದ ಒಡ್ಡಬಹುದು, ಇದನ್ನು ಸ್ವೀಡಿಷ್ ತತ್ವಜ್ಞಾನಿ ನಿಕ್ ಬೋಸ್ಟ್ರೋಮ್ ಅವರು ಪುಸ್ತಕಗಳು ಮತ್ತು ಪೇಪರ್‌ಗಳ ಸರಣಿಯಲ್ಲಿ ಪ್ರಾರಂಭಿಸಿದರು. 2002. ಅವರ ವಾದಗಳನ್ನು ಎಲೋನ್ ಮಸ್ಕ್, ಟೆಸ್ಲಾ ಮುಖ್ಯಸ್ಥ, ಸ್ಪೇಸ್‌ಎಕ್ಸ್ ಮತ್ತು, ವಿಷಾದನೀಯವಾಗಿ, ಎಕ್ಸ್ ಸೇರಿದಂತೆ ಇತರರು ಸ್ವೀಕರಿಸಿದ್ದಾರೆ ಮತ್ತು ವಿಸ್ತರಿಸಿದ್ದಾರೆ.

“AI ಡೂಮರ್ಸ್” ಎಂದೂ ಕರೆಯಲ್ಪಡುವ ಈ “AI ಸುರಕ್ಷತೆ” ಶಿಬಿರದಲ್ಲಿರುವವರು ಇದು ವಿವಿಧ ರೀತಿಯಲ್ಲಿ ಹಾನಿಯನ್ನುಂಟುಮಾಡಬಹುದೆಂದು ಚಿಂತಿಸುತ್ತಾರೆ. AI ವ್ಯವಸ್ಥೆಗಳು ತಮ್ಮನ್ನು ತಾವು ಸುಧಾರಿಸಿಕೊಳ್ಳಲು ಸಾಧ್ಯವಾದರೆ, ಉದಾಹರಣೆಗೆ, ಹಠಾತ್ “ಟೇಕ್ ಆಫ್” ಅಥವಾ “ಸ್ಫೋಟ” ಆಗಬಹುದು, ಅಲ್ಲಿ AIಗಳು ತ್ವರಿತ ಅನುಕ್ರಮದಲ್ಲಿ ಹೆಚ್ಚು ಶಕ್ತಿಯುತ AIಗಳನ್ನು ಹುಟ್ಟುಹಾಕುತ್ತವೆ. ಪರಿಣಾಮವಾಗಿ “ಸೂಪರ್ ಇಂಟೆಲಿಜೆನ್ಸ್” ಮಾನವರನ್ನು ಮೀರಿಸುತ್ತದೆ, ಡೂಮರ್ ಭಯ, ಮತ್ತು ಅದರ ಮಾನವ ಸೃಷ್ಟಿಕರ್ತರಿಂದ ವಿಭಿನ್ನವಾದ ಪ್ರೇರಣೆಗಳನ್ನು ಹೊಂದಿರಬಹುದು. ಇತರ ಡೂಮರ್ ಸನ್ನಿವೇಶಗಳಲ್ಲಿ AIಗಳು ಸೈಬರ್-ದಾಳಿಗಳನ್ನು ನಡೆಸುವುದು, ಬಾಂಬ್‌ಗಳು ಮತ್ತು ಜೈವಿಕ ಶಸ್ತ್ರಾಸ್ತ್ರಗಳ ರಚನೆಗೆ ಸಹಾಯ ಮಾಡುವುದು ಮತ್ತು ಭಯೋತ್ಪಾದಕ ಕೃತ್ಯಗಳನ್ನು ಮಾಡಲು ಮಾನವರನ್ನು ಮನವೊಲಿಸುವುದು. ಅಥವಾ ಪರಮಾಣು ಶಸ್ತ್ರಾಸ್ತ್ರಗಳನ್ನು ನಿಯೋಜಿಸಿ.

ನವೆಂಬರ್ 2022 ರಲ್ಲಿ ChatGPT ಬಿಡುಗಡೆಯಾದ ನಂತರ AI ಯ ಬೆಳೆಯುತ್ತಿರುವ ಶಕ್ತಿಯನ್ನು ಎತ್ತಿ ತೋರಿಸಿತು, ಸಾರ್ವಜನಿಕ ಚರ್ಚೆಯು AI-ಸುರಕ್ಷತೆಯ ಕಾಳಜಿಗಳಿಂದ ಪ್ರಾಬಲ್ಯ ಹೊಂದಿದೆ. ಮಾರ್ಚ್ 2023 ರಲ್ಲಿ ಶ್ರೀ ಮಸ್ಕ್ ಸೇರಿದಂತೆ ಟೆಕ್ ಗ್ರ್ಯಾಂಡಿಗಳ ಗುಂಪು AI ಅಭಿವೃದ್ಧಿಯ ಮೇಲೆ ಕನಿಷ್ಠ ಆರು ತಿಂಗಳ ಕಾಲ ನಿಷೇಧಕ್ಕೆ ಕರೆ ನೀಡಿತು. ಮುಂದಿನ ನವೆಂಬರ್‌ನಲ್ಲಿ ಇಂಗ್ಲೆಂಡ್‌ನ ಬ್ಲೆಚ್ಲೇ ಪಾರ್ಕ್‌ನಲ್ಲಿ ನಡೆದ AI-ಸುರಕ್ಷತಾ ಶೃಂಗಸಭೆಯಲ್ಲಿ 100 ವಿಶ್ವ ನಾಯಕರು ಮತ್ತು ಟೆಕ್ ಕಾರ್ಯನಿರ್ವಾಹಕರ ಗುಂಪು ಭೇಟಿಯಾಯಿತು, ಅತ್ಯಾಧುನಿಕ (“ಫ್ರಾಂಟಿಯರ್”) AI ಮಾದರಿಗಳು “ಗಂಭೀರ, ದುರಂತ, ಹಾನಿ” ಮಾಡುವ ಸಾಮರ್ಥ್ಯವನ್ನು ಹೊಂದಿವೆ ಎಂದು ಘೋಷಿಸಿದರು.

ಈ ಫೋಕಸ್ ಅಂದಿನಿಂದ ಹಿನ್ನಡೆಯ ಏನೋ ಕೆರಳಿಸಿದೆ. X-ಅಪಾಯಗಳು ಇನ್ನೂ ಹೆಚ್ಚಾಗಿ ಊಹಾತ್ಮಕವಾಗಿವೆ ಮತ್ತು ಜೈವಿಕ ಶಸ್ತ್ರಾಸ್ತ್ರಗಳನ್ನು ನಿರ್ಮಿಸಲು ಬಯಸುವ ಕೆಟ್ಟ ನಟರು ಈಗಾಗಲೇ ಇಂಟರ್ನೆಟ್‌ನಲ್ಲಿ ಸಲಹೆಯನ್ನು ಹುಡುಕಬಹುದು ಎಂದು ವಿಮರ್ಶಕರು ಹೇಳುತ್ತಾರೆ. AI ನಿಂದ ಉಂಟಾಗುವ ಸೈದ್ಧಾಂತಿಕ, ದೀರ್ಘಾವಧಿಯ ಅಪಾಯಗಳ ಬಗ್ಗೆ ಚಿಂತಿಸುವ ಬದಲು, ಅವರು ವಾದಿಸುತ್ತಾರೆ, ಪಕ್ಷಪಾತ, ತಾರತಮ್ಯ, AI- ರಚಿತವಾದ ತಪ್ಪು ಮಾಹಿತಿ ಮತ್ತು ಬೌದ್ಧಿಕ-ಆಸ್ತಿ ಹಕ್ಕುಗಳ ಉಲ್ಲಂಘನೆಯಂತಹ AI ನಿಂದ ಉಂಟಾಗುವ ನೈಜ ಅಪಾಯಗಳ ಮೇಲೆ ಗಮನ ಕೇಂದ್ರೀಕರಿಸಬೇಕು. “AI ನೀತಿಶಾಸ್ತ್ರ” ಶಿಬಿರ ಎಂದು ಕರೆಯಲ್ಪಡುವ ಈ ಸ್ಥಾನದ ಪ್ರಮುಖ ವಕೀಲರಲ್ಲಿ ವಾಷಿಂಗ್ಟನ್ ವಿಶ್ವವಿದ್ಯಾನಿಲಯದ ಎಮಿಲಿ ಬೆಂಡರ್ ಮತ್ತು ಟಿಮ್ನಿಟ್ ಗೆಬ್ರು ಸೇರಿದ್ದಾರೆ, ಅವರು ಅಂತಹ ಅಪಾಯಗಳ ಬಗ್ಗೆ ಸಹ-ಬರೆದ ನಂತರ Google ನಿಂದ ವಜಾಗೊಳಿಸಿದ್ದಾರೆ.

ಪೂರ್ಣ ಚಿತ್ರವನ್ನು ವೀಕ್ಷಿಸಿ

(ದಿ ಎಕನಾಮಿಸ್ಟ್)

AI ವ್ಯವಸ್ಥೆಗಳು ತಪ್ಪಾಗುವುದರಿಂದ ಉಂಟಾಗುವ ನೈಜ-ಪ್ರಪಂಚದ ಅಪಾಯಗಳ ಉದಾಹರಣೆಗಳು ವಿಪುಲವಾಗಿವೆ. Google ಫೋಟೋಗಳಲ್ಲಿನ ಚಿತ್ರ-ಲೇಬಲಿಂಗ್ ವೈಶಿಷ್ಟ್ಯವು ಕಪ್ಪು ಜನರನ್ನು ಗೊರಿಲ್ಲಾ ಎಂದು ಟ್ಯಾಗ್ ಮಾಡಿದೆ; ಹೆಚ್ಚಾಗಿ ಬಿಳಿ ಮುಖಗಳ ಮೇಲೆ ತರಬೇತಿ ಪಡೆದ ಮುಖ-ಗುರುತಿಸುವಿಕೆಯ ವ್ಯವಸ್ಥೆಗಳು ಬಣ್ಣದ ಜನರನ್ನು ತಪ್ಪಾಗಿ ಗುರುತಿಸುತ್ತವೆ; ಅರ್ಜಿದಾರರ ಹೆಸರುಗಳು ಮತ್ತು ಲಿಂಗಗಳನ್ನು ಮರೆಮಾಡಿದ್ದರೂ ಸಹ, ಭರವಸೆಯ ಉದ್ಯೋಗ ಅಭ್ಯರ್ಥಿಗಳನ್ನು ಗುರುತಿಸಲು ನಿರ್ಮಿಸಲಾದ AI ರೆಸ್ಯೂಮೆ-ಸ್ಕ್ಯಾನಿಂಗ್ ವ್ಯವಸ್ಥೆ ಮರು ಅಪರಾಧದ ದರಗಳನ್ನು ಅಂದಾಜು ಮಾಡಲು, ಮಕ್ಕಳ ಪ್ರಯೋಜನಗಳನ್ನು ನಿಯೋಜಿಸಲು ಅಥವಾ ಬ್ಯಾಂಕ್ ಸಾಲಗಳಿಗೆ ಯಾರು ಅರ್ಹರು ಎಂಬುದನ್ನು ನಿರ್ಧರಿಸಲು ಬಳಸುವ ಅಲ್ಗಾರಿದಮ್‌ಗಳು ಜನಾಂಗೀಯ ಪಕ್ಷಪಾತವನ್ನು ಪ್ರದರ್ಶಿಸುತ್ತವೆ. ಆನ್‌ಲೈನ್‌ನಲ್ಲಿ ಜನರಿಗೆ ಕಿರುಕುಳ ನೀಡಲು ಅಥವಾ ರಾಜಕಾರಣಿಗಳ ಅಭಿಪ್ರಾಯಗಳನ್ನು ತಪ್ಪಾಗಿ ನಿರೂಪಿಸಲು ಅಶ್ಲೀಲ ವೀಡಿಯೊಗಳನ್ನು ಒಳಗೊಂಡಂತೆ “ಡೀಪ್‌ಫೇಕ್” ವೀಡಿಯೊಗಳನ್ನು ರಚಿಸಲು AI ಪರಿಕರಗಳನ್ನು ಬಳಸಬಹುದು ಮತ್ತು AI ಸಂಸ್ಥೆಗಳು ತಮ್ಮ ಬೌದ್ಧಿಕ ಬಳಕೆಯನ್ನು ಸಮರ್ಥಿಸುವ ಬರಹಗಾರರು, ಕಲಾವಿದರು ಮತ್ತು ಸಂಗೀತಗಾರರಿಂದ ಹೆಚ್ಚಿನ ಸಂಖ್ಯೆಯ ಮೊಕದ್ದಮೆಗಳನ್ನು ಎದುರಿಸುತ್ತಿವೆ. AI ಮಾದರಿಗಳಿಗೆ ತರಬೇತಿ ನೀಡುವ ಆಸ್ತಿ ಕಾನೂನುಬಾಹಿರವಾಗಿದೆ.

ಇದನ್ನೂ ಓದಿ  ಅರಿಜಿತ್ ಸಿಂಗ್ ವಿರುದ್ಧ AI: ಹಾಡುಗಳನ್ನು ರಚಿಸಲು ತನ್ನ ಧ್ವನಿಯನ್ನು ಅನುಕರಿಸುವ ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆ ವಿರುದ್ಧ ಬಾಲಿವುಡ್ ಗಾಯಕ ಜಯಗಳಿಸಿದ್ದಾರೆ

ಮತ್ತೊಂದು AI ಕೂಟಕ್ಕಾಗಿ ಮೇ 2024 ರಲ್ಲಿ ಸಿಯೋಲ್‌ನಲ್ಲಿ ವಿಶ್ವ ನಾಯಕರು ಮತ್ತು ಟೆಕ್ ಕಾರ್ಯನಿರ್ವಾಹಕರು ಭೇಟಿಯಾದಾಗ, ಚರ್ಚೆಯು ದೂರದ x-ಅಪಾಯಗಳ ಬಗ್ಗೆ ಕಡಿಮೆ ಮತ್ತು ಅಂತಹ ತಕ್ಷಣದ ಸಮಸ್ಯೆಗಳ ಬಗ್ಗೆ ಹೆಚ್ಚು-ಮುಂದಿನ AI-ಸುರಕ್ಷತಾ ಶೃಂಗಸಭೆಯಲ್ಲಿ ಮುಂದುವರಿಯುವ ಸಾಧ್ಯತೆಯಿದೆ. 2025 ರಲ್ಲಿ ಫ್ರಾನ್ಸ್‌ನಲ್ಲಿ ಈಗಲೂ ಕರೆಯಲಾಗುತ್ತದೆ. ಸಂಕ್ಷಿಪ್ತವಾಗಿ ಹೇಳುವುದಾದರೆ, AI-ನೀತಿಗಳ ಶಿಬಿರವು ಈಗ ನೀತಿ ನಿರೂಪಕರ ಕಿವಿಯನ್ನು ಹೊಂದಿದೆ. ಇದು ಆಶ್ಚರ್ಯಕರವಲ್ಲ, ಏಕೆಂದರೆ AI ಅನ್ನು ನಿಯಂತ್ರಿಸಲು ಕಾನೂನುಗಳನ್ನು ರಚಿಸುವಾಗ, ಪ್ರಪಂಚದಾದ್ಯಂತ ಈಗ ನಡೆಯುತ್ತಿರುವ ಪ್ರಕ್ರಿಯೆ, ಅಸ್ತಿತ್ವದಲ್ಲಿರುವ ಹಾನಿಗಳಿಗೆ ಗಮನ ಕೊಡುವುದು ಅರ್ಥಪೂರ್ಣವಾಗಿದೆ-ಉದಾಹರಣೆಗೆ ಡೀಪ್‌ಫೇಕ್‌ಗಳನ್ನು ಅಪರಾಧೀಕರಿಸುವ ಮೂಲಕ-ಅಥವಾ AI ಸಿಸ್ಟಮ್‌ಗಳ ಲೆಕ್ಕಪರಿಶೋಧನೆಯ ಅಗತ್ಯವಿರುತ್ತದೆ. ಸರ್ಕಾರಿ ಸಂಸ್ಥೆಗಳು ಬಳಸುತ್ತವೆ.

ಹೀಗಿದ್ದರೂ ರಾಜಕಾರಣಿಗಳು ಉತ್ತರಿಸಬೇಕಾದ ಪ್ರಶ್ನೆಗಳಿವೆ. ನಿಯಮಗಳು ಎಷ್ಟು ವಿಶಾಲವಾಗಿರಬೇಕು? ಸ್ವಯಂ ನಿಯಂತ್ರಣ ಸಾಕಷ್ಟಿದೆಯೇ ಅಥವಾ ಕಾನೂನುಗಳ ಅಗತ್ಯವಿದೆಯೇ? ತಂತ್ರಜ್ಞಾನವು ಸ್ವತಃ ನಿಯಮಗಳ ಅಗತ್ಯವಿದೆಯೇ ಅಥವಾ ಅದರ ಅನ್ವಯಗಳು ಮಾತ್ರವೇ? ಮತ್ತು ನಾವೀನ್ಯತೆಯ ವ್ಯಾಪ್ತಿಯನ್ನು ಕಡಿಮೆ ಮಾಡುವ ನಿಯಮಗಳ ಅವಕಾಶ ವೆಚ್ಚ ಎಷ್ಟು? ಸರ್ಕಾರಗಳು ಈ ಪ್ರಶ್ನೆಗಳಿಗೆ ತಮ್ಮದೇ ಆದ ರೀತಿಯಲ್ಲಿ ಉತ್ತರಿಸಲು ಪ್ರಾರಂಭಿಸಿವೆ.

ವರ್ಣಪಟಲದ ಒಂದು ತುದಿಯಲ್ಲಿ ಗಲ್ಫ್ ರಾಜ್ಯಗಳು ಮತ್ತು ಬ್ರಿಟನ್ ಸೇರಿದಂತೆ ಸ್ವ-ನಿಯಂತ್ರಣವನ್ನು ಹೆಚ್ಚಾಗಿ ಅವಲಂಬಿಸಿರುವ ದೇಶಗಳಿವೆ (ಹೊಸ ಲೇಬರ್ ಸರ್ಕಾರವು ಇದನ್ನು ಬದಲಾಯಿಸಬಹುದು). ಈ ಪ್ಯಾಕ್‌ನ ನಾಯಕ ಅಮೆರಿಕ. ಕಾಂಗ್ರೆಸ್ ಸದಸ್ಯರು AI ಅಪಾಯಗಳ ಬಗ್ಗೆ ಮಾತನಾಡುತ್ತಾರೆ ಆದರೆ ಯಾವುದೇ ಕಾನೂನು ಬರುವುದಿಲ್ಲ. ಇದು AI ಕುರಿತು ಅಧ್ಯಕ್ಷ ಜೋ ಬಿಡೆನ್ ಅವರ ಕಾರ್ಯನಿರ್ವಾಹಕ ಆದೇಶವನ್ನು ಅಕ್ಟೋಬರ್ 2023 ರಲ್ಲಿ ಸಹಿ ಮಾಡಿದೆ, ಇದು ತಂತ್ರಜ್ಞಾನಕ್ಕಾಗಿ ದೇಶದ ಪ್ರಮುಖ ಕಾನೂನು ನಿರ್ದೇಶನವಾಗಿದೆ.

ಇದನ್ನೂ ಓದಿ  ದಾಖಲೆಯ ಚಿನ್ನದ ಬೆಲೆಗಳ ಮಧ್ಯೆ Senco Gold, PC Jeweller, ಮತ್ತು 3 ಇತರ ಆಭರಣ ಸ್ಟಾಕ್‌ಗಳು 8% ವರೆಗೆ ಏರಿವೆ

AI ಮಾದರಿಯನ್ನು ತರಬೇತಿ ಮಾಡಲು 1026 ಕ್ಕೂ ಹೆಚ್ಚು ಕಂಪ್ಯೂಟೇಶನಲ್ ಕಾರ್ಯಾಚರಣೆಗಳನ್ನು ಬಳಸುವ ಸಂಸ್ಥೆಗಳು, ರಾಷ್ಟ್ರೀಯ ಭದ್ರತೆ ಮತ್ತು ಸಾರ್ವಜನಿಕ ಸುರಕ್ಷತೆಗೆ ಸಂಭಾವ್ಯ ಅಪಾಯವೆಂದು ಪರಿಗಣಿಸಲಾದ ಮಾದರಿಗಳು ಅಧಿಕಾರಿಗಳಿಗೆ ಸೂಚಿಸಲು ಮತ್ತು ಸುರಕ್ಷತಾ ಪರೀಕ್ಷೆಗಳ ಫಲಿತಾಂಶಗಳನ್ನು ಹಂಚಿಕೊಳ್ಳಲು ಆದೇಶದ ಅಗತ್ಯವಿದೆ. ಈ ಮಿತಿಯು ಅತಿ ದೊಡ್ಡ ಮಾದರಿಗಳ ಮೇಲೆ ಮಾತ್ರ ಪರಿಣಾಮ ಬೀರುತ್ತದೆ. ಉಳಿದವರಿಗೆ, ಸ್ವಯಂಪ್ರೇರಿತ ಬದ್ಧತೆಗಳು ಮತ್ತು ಸ್ವಯಂ ನಿಯಂತ್ರಣವು ಸರ್ವೋಚ್ಚವಾಗಿದೆ. ಅಮೇರಿಕಾ ವಿಶ್ವ ನಾಯಕರಾಗಿರುವ ಕ್ಷೇತ್ರದಲ್ಲಿ ಅತಿಯಾದ ಕಟ್ಟುನಿಟ್ಟಿನ ನಿಯಂತ್ರಣವು ನಾವೀನ್ಯತೆಯನ್ನು ನಿಗ್ರಹಿಸಬಹುದೆಂದು ಶಾಸಕರು ಚಿಂತಿಸುತ್ತಾರೆ; ನಿಯಂತ್ರಣವು ಚೀನಾವನ್ನು AI ಸಂಶೋಧನೆಯಲ್ಲಿ ಮುಂದಕ್ಕೆ ಎಳೆಯಲು ಅವಕಾಶ ನೀಡುತ್ತದೆ ಎಂದು ಅವರು ಭಯಪಡುತ್ತಾರೆ.

ಚೀನಾ ಸರ್ಕಾರವು ಹೆಚ್ಚು ಕಠಿಣ ವಿಧಾನವನ್ನು ತೆಗೆದುಕೊಳ್ಳುತ್ತಿದೆ. ಇದು ಹಲವಾರು ಸೆಟ್ AI ನಿಯಮಗಳನ್ನು ಪ್ರಸ್ತಾಪಿಸಿದೆ. ಮಾಹಿತಿಯ ಹರಿವನ್ನು ನಿಯಂತ್ರಿಸುವುದಕ್ಕಿಂತ ಮಾನವೀಯತೆಯನ್ನು ರಕ್ಷಿಸುವುದು ಅಥವಾ ಚೀನಾದ ನಾಗರಿಕರು ಮತ್ತು ಕಂಪನಿಗಳನ್ನು ರಕ್ಷಿಸುವ ಗುರಿ ಕಡಿಮೆಯಾಗಿದೆ. AI ಮಾದರಿಗಳ ತರಬೇತಿ ಡೇಟಾ ಮತ್ತು ಔಟ್‌ಪುಟ್‌ಗಳು “ನಿಜ ಮತ್ತು ನಿಖರ”ವಾಗಿರಬೇಕು ಮತ್ತು “ಸಮಾಜವಾದದ ಪ್ರಮುಖ ಮೌಲ್ಯಗಳನ್ನು” ಪ್ರತಿಬಿಂಬಿಸಬೇಕು. ವಿಷಯಗಳನ್ನು ರೂಪಿಸಲು AI ಮಾದರಿಗಳ ಒಲವು ನೀಡಲಾಗಿದೆ, ಈ ಮಾನದಂಡಗಳನ್ನು ಪೂರೈಸಲು ಕಷ್ಟವಾಗಬಹುದು. ಆದರೆ ಚೀನಾ ಬಯಸುವುದು ಇದೇ ಆಗಿರಬಹುದು: ಪ್ರತಿಯೊಬ್ಬರೂ ನಿಯಮಾವಳಿಗಳನ್ನು ಉಲ್ಲಂಘಿಸಿದಾಗ, ಸರ್ಕಾರವು ತನಗೆ ಇಷ್ಟವಾದಂತೆ ಅವುಗಳನ್ನು ಆಯ್ದವಾಗಿ ಜಾರಿಗೊಳಿಸಬಹುದು.

ಯುರೋಪ್ ಮಧ್ಯದಲ್ಲಿ ಎಲ್ಲೋ ಕುಳಿತಿದೆ. ಮೇ ತಿಂಗಳಲ್ಲಿ, ಯುರೋಪಿಯನ್ ಯೂನಿಯನ್ ವಿಶ್ವದ ಮೊದಲ ಸಮಗ್ರ ಶಾಸನವನ್ನು ಅಂಗೀಕರಿಸಿತು, AI ಕಾಯಿದೆ, ಇದು ಆಗಸ್ಟ್ 1 ರಂದು ಜಾರಿಗೆ ಬಂದಿತು ಮತ್ತು ಇದು ಜಾಗತಿಕ ಡಿಜಿಟಲ್ ಮಾನದಂಡಗಳ ಸೆಟ್ಟರ್ ಆಗಿ ಬಣದ ಪಾತ್ರವನ್ನು ಭದ್ರಪಡಿಸಿತು. ಆದರೆ ಕಾನೂನು ಬಹುಪಾಲು ಉತ್ಪನ್ನ-ಸುರಕ್ಷತಾ ದಾಖಲೆಯಾಗಿದ್ದು ಅದು ತಂತ್ರಜ್ಞಾನದ ಅನ್ವಯಗಳನ್ನು ಅವು ಎಷ್ಟು ಅಪಾಯಕಾರಿ ಎಂಬುದರ ಆಧಾರದ ಮೇಲೆ ನಿಯಂತ್ರಿಸುತ್ತದೆ. AI-ಚಾಲಿತ ಬರವಣಿಗೆ ಸಹಾಯಕನಿಗೆ ಯಾವುದೇ ನಿಯಂತ್ರಣ ಅಗತ್ಯವಿಲ್ಲ, ಉದಾಹರಣೆಗೆ, ವಿಕಿರಣಶಾಸ್ತ್ರಜ್ಞರಿಗೆ ಸಹಾಯ ಮಾಡುವ ಸೇವೆಯು ಮಾಡುತ್ತದೆ. ಸಾರ್ವಜನಿಕ ಸ್ಥಳಗಳಲ್ಲಿ ನೈಜ-ಸಮಯದ ಮುಖ ಗುರುತಿಸುವಿಕೆಯಂತಹ ಕೆಲವು ಬಳಕೆಗಳನ್ನು ಸಂಪೂರ್ಣವಾಗಿ ನಿಷೇಧಿಸಲಾಗಿದೆ. ಅತ್ಯಂತ ಶಕ್ತಿಶಾಲಿ ಮಾದರಿಗಳು ಮಾತ್ರ ಕಟ್ಟುನಿಟ್ಟಾದ ನಿಯಮಗಳನ್ನು ಅನುಸರಿಸಬೇಕು, ಉದಾಹರಣೆಗೆ ಅವರು ಒಡ್ಡುವ ಅಪಾಯಗಳನ್ನು ನಿರ್ಣಯಿಸಲು ಮತ್ತು ಅವುಗಳನ್ನು ತಗ್ಗಿಸಲು ಕ್ರಮಗಳನ್ನು ತೆಗೆದುಕೊಳ್ಳಲು ಎರಡೂ ಆದೇಶಗಳು.

ಹೊಸ ವಿಶ್ವ ಕ್ರಮವೇ?

AI ಅನ್ನು ನಿಯಂತ್ರಿಸಲು ವಿಭಿನ್ನ ಸರ್ಕಾರಗಳು ವಿಭಿನ್ನ ವಿಧಾನಗಳನ್ನು ತೆಗೆದುಕೊಳ್ಳುವುದರಿಂದ, ಒಂದು ದೊಡ್ಡ ಜಾಗತಿಕ ಪ್ರಯೋಗವು ನಡೆಯುತ್ತಿದೆ. ಹೊಸ ನಿಯಮಗಳನ್ನು ಪರಿಚಯಿಸುವುದರ ಜೊತೆಗೆ, ಇದು ಕೆಲವು ಹೊಸ ಸಂಸ್ಥೆಗಳನ್ನು ಸ್ಥಾಪಿಸುವುದನ್ನು ಒಳಗೊಂಡಿರುತ್ತದೆ. ದೊಡ್ಡ ಮಾದರಿ-ತಯಾರಕರು ತನ್ನ ಹೊಸ ಕಾನೂನನ್ನು ಅನುಸರಿಸುವುದನ್ನು ಖಚಿತಪಡಿಸಿಕೊಳ್ಳಲು EU AI ಕಚೇರಿಯನ್ನು ರಚಿಸಿದೆ. ಇದಕ್ಕೆ ವಿರುದ್ಧವಾಗಿ, ಅಮೇರಿಕಾ ಮತ್ತು ಬ್ರಿಟನ್ ಆರೋಗ್ಯ ರಕ್ಷಣೆ ಅಥವಾ ಕಾನೂನು ವೃತ್ತಿಯಂತಹ AI ನಿಯೋಜಿಸಲಾದ ಪ್ರದೇಶಗಳಲ್ಲಿ ಅಸ್ತಿತ್ವದಲ್ಲಿರುವ ಏಜೆನ್ಸಿಗಳನ್ನು ಅವಲಂಬಿಸಿವೆ. ಆದರೆ ಎರಡೂ ದೇಶಗಳು AI-ಸುರಕ್ಷತಾ ಸಂಸ್ಥೆಗಳನ್ನು ರಚಿಸಿವೆ. ಜಪಾನ್ ಮತ್ತು ಸಿಂಗಾಪುರ ಸೇರಿದಂತೆ ಇತರ ದೇಶಗಳು ಇದೇ ರೀತಿಯ ಸಂಸ್ಥೆಗಳನ್ನು ಸ್ಥಾಪಿಸಲು ಉದ್ದೇಶಿಸಿದೆ.

ಇದನ್ನೂ ಓದಿ  ಮಿಂಟ್ ಪ್ರೈಮರ್ | ಎಂಜಿನ್‌ಗಾಗಿ ಹುಡುಕಾಟ: ಗೂಗಲ್ ಚಿಂತಿಸಬೇಕೇ?

ಏತನ್ಮಧ್ಯೆ, ಜಾಗತಿಕ ನಿಯಮಗಳನ್ನು ರೂಪಿಸಲು ಮೂರು ಪ್ರತ್ಯೇಕ ಪ್ರಯತ್ನಗಳು ನಡೆಯುತ್ತಿವೆ ಮತ್ತು ಅವುಗಳನ್ನು ಮೇಲ್ವಿಚಾರಣೆ ಮಾಡಲು ಒಂದು ಸಂಸ್ಥೆಯಾಗಿದೆ. ಒಂದು AI-ಸುರಕ್ಷತಾ ಶೃಂಗಸಭೆಗಳು ಮತ್ತು ವಿವಿಧ ರಾಷ್ಟ್ರೀಯ AI-ಸುರಕ್ಷತಾ ಸಂಸ್ಥೆಗಳು, ಇವುಗಳು ಸಹಯೋಗಿಸಲು ಉದ್ದೇಶಿಸಲಾಗಿದೆ. ಇನ್ನೊಂದು “ಹಿರೋಷಿಮಾ ಪ್ರಕ್ರಿಯೆ”, ಮೇ 2023 ರಲ್ಲಿ ಜಪಾನೀಸ್ ನಗರದಲ್ಲಿ ಶ್ರೀಮಂತ ಪ್ರಜಾಪ್ರಭುತ್ವಗಳ G7 ಗುಂಪಿನಿಂದ ಪ್ರಾರಂಭವಾಯಿತು ಮತ್ತು OECD ಯಿಂದ ಹೆಚ್ಚೆಚ್ಚು ಸ್ವಾಧೀನಪಡಿಸಿಕೊಂಡಿದೆ, ಇದು ಬಹುತೇಕ ಶ್ರೀಮಂತ ರಾಷ್ಟ್ರಗಳ ದೊಡ್ಡ ಕ್ಲಬ್ ಆಗಿದೆ. ಮೂರನೇ ಪ್ರಯತ್ನವು UN ನೇತೃತ್ವದಲ್ಲಿದೆ. ಸೆಪ್ಟೆಂಬರ್‌ನಲ್ಲಿ ನಡೆಯುವ ಶೃಂಗಸಭೆಗೆ ಮುಂಚಿತವಾಗಿ ವರದಿಯನ್ನು ತಯಾರಿಸುವ ಸಲಹಾ ಸಂಸ್ಥೆಯನ್ನು ರಚಿಸಿದೆ.

ಈ ಮೂರು ಉಪಕ್ರಮಗಳು ಬಹುಶಃ ಒಮ್ಮುಖವಾಗುತ್ತವೆ ಮತ್ತು ಹೊಸ ಅಂತರರಾಷ್ಟ್ರೀಯ ಸಂಸ್ಥೆಗೆ ಕಾರಣವಾಗಬಹುದು. ಅದು ಯಾವ ರೂಪದಲ್ಲಿರಬೇಕು ಎಂಬುದರ ಕುರಿತು ಹಲವು ಅಭಿಪ್ರಾಯಗಳಿವೆ. ಚಾಟ್‌ಜಿಪಿಟಿಯ ಹಿಂದಿನ ಸ್ಟಾರ್ಟ್‌ಅಪ್ ಓಪನ್‌ಎಐ, ಎಕ್ಸ್-ರಿಸ್ಕ್‌ಗಳನ್ನು ಮೇಲ್ವಿಚಾರಣೆ ಮಾಡಲು ವಿಶ್ವದ ಪರಮಾಣು ವಾಚ್‌ಡಾಗ್‌ನ ಇಂಟರ್ನ್ಯಾಷನಲ್ ಅಟಾಮಿಕ್ ಎನರ್ಜಿ ಏಜೆನ್ಸಿಯಂತಹದನ್ನು ಬಯಸುತ್ತದೆ ಎಂದು ಹೇಳುತ್ತದೆ. ಮೈಕ್ರೋಸಾಫ್ಟ್, ಟೆಕ್ ದೈತ್ಯ ಮತ್ತು OpenAI ನ ಅತಿದೊಡ್ಡ ಷೇರುದಾರ, ವಿಮಾನಯಾನಕ್ಕಾಗಿ ನಿಯಮಗಳನ್ನು ಹೊಂದಿಸುವ ಇಂಟರ್ನ್ಯಾಷನಲ್ ಸಿವಿಲ್ ಏವಿಯೇಷನ್ ​​ಆರ್ಗನೈಸೇಶನ್ ಮಾದರಿಯಲ್ಲಿ ಕಡಿಮೆ ಭವ್ಯವಾದ ದೇಹವನ್ನು ಆದ್ಯತೆ ನೀಡುತ್ತದೆ. ಶೈಕ್ಷಣಿಕ ಸಂಶೋಧಕರು ನ್ಯೂಕ್ಲಿಯರ್ ರಿಸರ್ಚ್‌ಗಾಗಿ ಯುರೋಪಿಯನ್ ಆರ್ಗನೈಸೇಶನ್ ಅಥವಾ CERN ಗೆ ಸಮಾನವಾದ AI ಗಾಗಿ ವಾದಿಸುತ್ತಾರೆ. EU ಯಿಂದ ಬೆಂಬಲಿತವಾದ ಒಂದು ರಾಜಿಯು ಹವಾಮಾನ ಬದಲಾವಣೆಯ ಕುರಿತಾದ ಇಂಟರ್‌ಗವರ್ನಮೆಂಟಲ್ ಪ್ಯಾನೆಲ್‌ಗೆ ಹೋಲುವಂತಿರುವದನ್ನು ರಚಿಸುತ್ತದೆ, ಇದು ಜಾಗತಿಕ ತಾಪಮಾನ ಮತ್ತು ಅದರ ಪ್ರಭಾವದ ಬಗ್ಗೆ ಸಂಶೋಧನೆಯ ಪಕ್ಕದಲ್ಲಿಯೇ ಇರಿಸುತ್ತದೆ.

ಈ ಮಧ್ಯೆ, ಚಿತ್ರವು ಗೊಂದಲಮಯವಾಗಿದೆ. ಮರು-ಚುನಾಯಿತರಾದ ಡೊನಾಲ್ಡ್ ಟ್ರಂಪ್ ಅವರು AI ಮೇಲಿನ ಕಾರ್ಯನಿರ್ವಾಹಕ ಆದೇಶವನ್ನು ತೆಗೆದುಹಾಕುತ್ತಾರೆ ಎಂಬ ಆತಂಕದಲ್ಲಿ, ಅಮೆರಿಕಾದ ರಾಜ್ಯಗಳು ತಂತ್ರಜ್ಞಾನವನ್ನು ನಿಯಂತ್ರಿಸಲು ಮುಂದಾದವು-ಮುಖ್ಯವಾಗಿ ಕ್ಯಾಲಿಫೋರ್ನಿಯಾ, 30 ಕ್ಕೂ ಹೆಚ್ಚು AI- ಸಂಬಂಧಿತ ಬಿಲ್‌ಗಳು ಕಾರ್ಯನಿರ್ವಹಿಸುತ್ತಿವೆ. ನಿರ್ದಿಷ್ಟವಾಗಿ ಒಂದು, ಆಗಸ್ಟ್ ಅಂತ್ಯದಲ್ಲಿ ಮತದಾನ ಮಾಡಲಾಗುವುದು, ಟೆಕ್ ಉದ್ಯಮವು ಶಸ್ತ್ರಾಸ್ತ್ರದಲ್ಲಿದೆ. ಇತರ ವಿಷಯಗಳ ಜೊತೆಗೆ, AI ಸಂಸ್ಥೆಗಳು ತಮ್ಮ ವ್ಯವಸ್ಥೆಗಳಲ್ಲಿ “ಕಿಲ್ ಸ್ವಿಚ್” ಅನ್ನು ನಿರ್ಮಿಸಲು ಒತ್ತಾಯಿಸುತ್ತದೆ. ಹಾಲಿವುಡ್‌ನ ತವರು ರಾಜ್ಯದಲ್ಲಿ, “ಟರ್ಮಿನೇಟರ್” ನ ಭೀತಿಯು AI ಯ ಚರ್ಚೆಯ ಮೇಲೆ ದೊಡ್ಡದಾಗಿ ಮುಂದುವರಿಯುತ್ತದೆ.

© 2024, The Economist Newspaper Ltd. ಎಲ್ಲಾ ಹಕ್ಕುಗಳನ್ನು ಕಾಯ್ದಿರಿಸಲಾಗಿದೆ. ದಿ ಎಕನಾಮಿಸ್ಟ್‌ನಿಂದ, ಪರವಾನಗಿ ಅಡಿಯಲ್ಲಿ ಪ್ರಕಟಿಸಲಾಗಿದೆ. ಮೂಲ ವಿಷಯವನ್ನು www.economist.com ನಲ್ಲಿ ಕಾಣಬಹುದು

Comments

No comments yet. Why don’t you start the discussion?

Leave a Reply

Your email address will not be published. Required fields are marked *