ನಿಯಂತ್ರಕರು ಸೈದ್ಧಾಂತಿಕ ಪದಗಳಿಗಿಂತ ನೈಜ AI ಅಪಾಯಗಳ ಮೇಲೆ ಕೇಂದ್ರೀಕರಿಸುತ್ತಿದ್ದಾರೆ. ಒಳ್ಳೆಯದು

ನಿಯಂತ್ರಕರು ಸೈದ್ಧಾಂತಿಕ ಪದಗಳಿಗಿಂತ ನೈಜ AI ಅಪಾಯಗಳ ಮೇಲೆ ಕೇಂದ್ರೀಕರಿಸುತ್ತಿದ್ದಾರೆ. ಒಳ್ಳೆಯದು

ಕ್ಷಮಿಸಿ ಡೇವ್, ನಾನು ಅದನ್ನು ಮಾಡಲು ಸಾಧ್ಯವಿಲ್ಲ ಎಂದು ನಾನು ಹೆದರುತ್ತೇನೆ.” HAL 9000, “2001: ಎ ಸ್ಪೇಸ್ ಒಡಿಸ್ಸಿ” ನಲ್ಲಿನ ಕೊಲೆಗಾರ ಕಂಪ್ಯೂಟರ್ ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆಯ (AI) ವೈಜ್ಞಾನಿಕ ಕಾಲ್ಪನಿಕ ಕಥೆಯ ಅನೇಕ ಉದಾಹರಣೆಗಳಲ್ಲಿ ಒಂದಾಗಿದೆ. ಮಾರಣಾಂತಿಕ ಪರಿಣಾಮಗಳನ್ನು ಹೊಂದಿರುವ ಮಾನವ ಸೃಷ್ಟಿಕರ್ತರು. AI ಯಲ್ಲಿನ ಇತ್ತೀಚಿನ ಪ್ರಗತಿ, ಮುಖ್ಯವಾಗಿ ChatGPT ಯ ಬಿಡುಗಡೆಯು “ಅಸ್ತಿತ್ವದ ಅಪಾಯದ” ಪ್ರಶ್ನೆಯನ್ನು ಅಂತರಾಷ್ಟ್ರೀಯ ಕಾರ್ಯಸೂಚಿಯನ್ನು ಹೆಚ್ಚಿಸಿದೆ. ಮಾರ್ಚ್ 2023 ರಲ್ಲಿ ಎಲೋನ್ ಮಸ್ಕ್ ಸೇರಿದಂತೆ ಹಲವಾರು ಟೆಕ್ ಗಣ್ಯರು ಅಭಿವೃದ್ಧಿಯಲ್ಲಿ ಕನಿಷ್ಠ ಆರು ತಿಂಗಳ ವಿರಾಮಕ್ಕೆ ಕರೆ ನೀಡಿದರು. ಕಳೆದ ಶರತ್ಕಾಲದಲ್ಲಿ ಬ್ರಿಟನ್‌ನಲ್ಲಿ ನಡೆದ AI-ಸುರಕ್ಷತಾ ಶೃಂಗಸಭೆಯಲ್ಲಿ, ಈ ಅಪಾಯಕಾರಿ ತಂತ್ರಜ್ಞಾನವನ್ನು ಹೇಗೆ ಉತ್ತಮವಾಗಿ ನಿಯಂತ್ರಿಸುವುದು ಎಂದು AI ನವರು ಚರ್ಚಿಸಿದರು.

ಇಂದಿನವರೆಗೂ ವೇಗವಾಗಿ ಮುಂದಕ್ಕೆ, ಆದರೂ, ಮತ್ತು ಮನಸ್ಥಿತಿ ಬದಲಾಗಿದೆ. ತಂತ್ರಜ್ಞಾನವು ತುಂಬಾ ವೇಗವಾಗಿ ಚಲಿಸುತ್ತಿದೆ ಎಂಬ ಭಯವು AI ಅದರ ಪ್ರಸ್ತುತ ರೂಪದಲ್ಲಿ, ನಿರೀಕ್ಷೆಗಿಂತ ಕಡಿಮೆ ವ್ಯಾಪಕವಾಗಿ ಉಪಯುಕ್ತವಾಗಬಹುದು ಮತ್ತು ಟೆಕ್ ಸಂಸ್ಥೆಗಳು ಅದನ್ನು ಅತಿಯಾಗಿ ಪ್ರಚಾರ ಮಾಡಿರಬಹುದು ಎಂಬ ಚಿಂತೆಗಳಿಂದ ಬದಲಾಯಿಸಲ್ಪಟ್ಟಿದೆ. ಅದೇ ಸಮಯದಲ್ಲಿ, ನಿಯಮಗಳನ್ನು ರೂಪಿಸುವ ಪ್ರಕ್ರಿಯೆಯು ನೀತಿ ನಿರೂಪಕರಿಗೆ AI ಯೊಂದಿಗೆ ಸಂಬಂಧಿಸಿರುವ ಅಸ್ತಿತ್ವದಲ್ಲಿರುವ ಸಮಸ್ಯೆಗಳಾದ ಪಕ್ಷಪಾತ, ತಾರತಮ್ಯ ಮತ್ತು ಬೌದ್ಧಿಕ-ಆಸ್ತಿ ಹಕ್ಕುಗಳ ಉಲ್ಲಂಘನೆಯಂತಹ ಸಮಸ್ಯೆಗಳನ್ನು ಗುರುತಿಸುವ ಅಗತ್ಯವನ್ನು ಗುರುತಿಸಲು ಕಾರಣವಾಗಿದೆ. AI ಕುರಿತು ನಮ್ಮ ಶಾಲೆಗಳಲ್ಲಿನ ಅಂತಿಮ ಅಧ್ಯಾಯವು ವಿವರಿಸಿದಂತೆ, ನಿಯಂತ್ರಣದ ಗಮನವು ಅಸ್ಪಷ್ಟ, ಕಾಲ್ಪನಿಕ ಅಪಾಯಗಳಿಂದ ನಿರ್ದಿಷ್ಟ ಮತ್ತು ತಕ್ಷಣದ ಅಪಾಯಗಳಿಗೆ ಸ್ಥಳಾಂತರಗೊಂಡಿದೆ. ಇದು ಒಳ್ಳೆಯದು.

ಇದನ್ನೂ ಓದಿ  OpenAI ಸಣ್ಣ AI ಮಾದರಿ GPT-4o Mini ಅನ್ನು ಪ್ರಾರಂಭಿಸುತ್ತದೆ. ಅದು ಏನು ಮತ್ತು ಅದು ಏಕೆ ಮುಖ್ಯವಾಗಿದೆ?

ಸಾಲಗಳು ಅಥವಾ ಅಡಮಾನಗಳಿಗಾಗಿ ಜನರನ್ನು ನಿರ್ಣಯಿಸುವ ಮತ್ತು ಪ್ರಯೋಜನಗಳನ್ನು ನಿಯೋಜಿಸುವ AI- ಆಧಾರಿತ ವ್ಯವಸ್ಥೆಗಳು ಜನಾಂಗೀಯ ಪಕ್ಷಪಾತವನ್ನು ಪ್ರದರ್ಶಿಸಲು ಕಂಡುಬಂದಿವೆ. ರೆಸ್ಯೂಮೆಗಳನ್ನು ಶೋಧಿಸುವ AI ನೇಮಕಾತಿ ವ್ಯವಸ್ಥೆಗಳು ಪುರುಷರಿಗೆ ಒಲವು ತೋರುತ್ತವೆ. ಕಾನೂನು ಜಾರಿ ಏಜೆನ್ಸಿಗಳು ಬಳಸುವ ಮುಖ-ಗುರುತಿಸುವಿಕೆಯ ವ್ಯವಸ್ಥೆಗಳು ಬಣ್ಣದ ಜನರನ್ನು ತಪ್ಪಾಗಿ ಗುರುತಿಸುವ ಸಾಧ್ಯತೆ ಹೆಚ್ಚು. ಜನರಿಗೆ ಕಿರುಕುಳ ನೀಡಲು ಅಥವಾ ರಾಜಕಾರಣಿಗಳ ಅಭಿಪ್ರಾಯಗಳನ್ನು ತಪ್ಪಾಗಿ ನಿರೂಪಿಸಲು ಅಶ್ಲೀಲ ವೀಡಿಯೊಗಳನ್ನು ಒಳಗೊಂಡಂತೆ “ಡೀಪ್‌ಫೇಕ್” ವೀಡಿಯೊಗಳನ್ನು ರಚಿಸಲು AI ಪರಿಕರಗಳನ್ನು ಬಳಸಬಹುದು. ಕಲಾವಿದರು, ಸಂಗೀತಗಾರರು ಮತ್ತು ಸುದ್ದಿ ಸಂಸ್ಥೆಗಳು ತಮ್ಮ ಕೆಲಸವನ್ನು ಅನುಮತಿಯಿಲ್ಲದೆ, AI ಮಾದರಿಗಳಿಗೆ ತರಬೇತಿ ನೀಡಲು ಬಳಸಲಾಗಿದೆ ಎಂದು ಹೇಳುತ್ತಾರೆ. ಮತ್ತು ಇದೆ ಸ್ಪಷ್ಟ ಒಪ್ಪಿಗೆಯಿಲ್ಲದೆ ತರಬೇತಿ ಉದ್ದೇಶಗಳಿಗಾಗಿ ವೈಯಕ್ತಿಕ ಡೇಟಾವನ್ನು ಬಳಸುವ ಕಾನೂನುಬದ್ಧತೆಯ ಮೇಲೆ ಅನಿಶ್ಚಿತತೆ.

ಪರಿಣಾಮವಾಗಿ ಹೊಸ ಕಾನೂನುಗಳ ಕೋಲಾಹಲವಾಗಿದೆ. ಕಾನೂನು ಜಾರಿ ಏಜೆನ್ಸಿಗಳಿಂದ ನೇರ ಮುಖ-ಗುರುತಿಸುವಿಕೆಯ ವ್ಯವಸ್ಥೆಗಳ ಬಳಕೆಯನ್ನು ಯುರೋಪಿಯನ್ ಒಕ್ಕೂಟದ AI ಕಾಯಿದೆಯಡಿಯಲ್ಲಿ ನಿಷೇಧಿಸಲಾಗುವುದು, ಉದಾಹರಣೆಗೆ, ಮುನ್ಸೂಚನೆಯ ಪೋಲೀಸಿಂಗ್, ಭಾವನೆಗಳನ್ನು ಗುರುತಿಸುವಿಕೆ ಮತ್ತು ಉತ್ಕೃಷ್ಟ ಜಾಹೀರಾತಿಗಾಗಿ AI ಬಳಕೆಯೊಂದಿಗೆ. ಹಲವು ದೇಶಗಳು AI-ರಚಿಸಿದ ವೀಡಿಯೊಗಳನ್ನು ಲೇಬಲ್ ಮಾಡಬೇಕಾದ ನಿಯಮಗಳನ್ನು ಪರಿಚಯಿಸಿವೆ. ದಕ್ಷಿಣ ಕೊರಿಯಾವು ಚುನಾವಣೆಗೆ 90 ದಿನಗಳಲ್ಲಿ ರಾಜಕಾರಣಿಗಳ ಡೀಪ್‌ಫೇಕ್ ವೀಡಿಯೊಗಳನ್ನು ನಿಷೇಧಿಸಿದೆ; ಸಿಂಗಾಪುರ ಇದನ್ನು ಅನುಸರಿಸಬಹುದು.

ಕೆಲವು ಸಂದರ್ಭಗಳಲ್ಲಿ ಅಸ್ತಿತ್ವದಲ್ಲಿರುವ ನಿಯಮಗಳನ್ನು ಸ್ಪಷ್ಟಪಡಿಸುವ ಅಗತ್ಯವಿದೆ. ವೈಯಕ್ತಿಕ ಡೇಟಾದ ಬಳಕೆಯ ನಿಯಮಗಳಲ್ಲಿನ ಅಸ್ಪಷ್ಟತೆಯಿಂದಾಗಿ EU ನಲ್ಲಿ ತಮ್ಮ ಕೆಲವು AI ಉತ್ಪನ್ನಗಳನ್ನು ಬಿಡುಗಡೆ ಮಾಡುವುದಿಲ್ಲ ಎಂದು Apple ಮತ್ತು Meta ಎರಡೂ ಹೇಳಿವೆ. (ದಿ ಎಕನಾಮಿಸ್ಟ್‌ನ ಆನ್‌ಲೈನ್ ಪ್ರಬಂಧದಲ್ಲಿ, ಮೆಟಾದ ಮುಖ್ಯ ಕಾರ್ಯನಿರ್ವಾಹಕ ಮಾರ್ಕ್ ಜುಕರ್‌ಬರ್ಗ್ ಮತ್ತು ಸ್ಪಾಟಿಫೈ ಮುಖ್ಯಸ್ಥ ಡೇನಿಯಲ್ ಏಕ್, ಈ ಅನಿಶ್ಚಿತತೆಯು ಯುರೋಪಿಯನ್ ಗ್ರಾಹಕರು ಇತ್ತೀಚಿನ ತಂತ್ರಜ್ಞಾನಕ್ಕೆ ಪ್ರವೇಶವನ್ನು ನಿರಾಕರಿಸುತ್ತಿದ್ದಾರೆ ಎಂದು ವಾದಿಸುತ್ತಾರೆ.) ಮತ್ತು ಕೆಲವು ವಿಷಯಗಳು-ಅಂತಹ “ನ್ಯಾಯಯುತ ಬಳಕೆ” ನಿಯಮಗಳ ಅಡಿಯಲ್ಲಿ ತರಬೇತಿ ಉದ್ದೇಶಗಳಿಗಾಗಿ ಹಕ್ಕುಸ್ವಾಮ್ಯದ ವಸ್ತುಗಳ ಬಳಕೆಯನ್ನು ಅನುಮತಿಸಲಾಗಿದೆಯೇ ಎಂದು ನ್ಯಾಯಾಲಯದಲ್ಲಿ ನಿರ್ಧರಿಸಬಹುದು.

ಇದನ್ನೂ ಓದಿ  AI ಗೆ ಭಾವನಾತ್ಮಕ ಸಂಬಂಧಗಳು? ಚಾಟ್‌ಜಿಪಿಟಿ ವಾಯ್ಸ್ ಮೋಡ್‌ನೊಂದಿಗೆ ಹೊಸ ಅಪಾಯಗಳ ಕುರಿತು OpenAI ಎಚ್ಚರಿಸುತ್ತದೆ

AI ಯೊಂದಿಗೆ ಅಸ್ತಿತ್ವದಲ್ಲಿರುವ ಸಮಸ್ಯೆಗಳನ್ನು ನಿಭಾಯಿಸಲು ಈ ಕೆಲವು ಪ್ರಯತ್ನಗಳು ಇತರರಿಗಿಂತ ಉತ್ತಮವಾಗಿ ಕಾರ್ಯನಿರ್ವಹಿಸುತ್ತವೆ. ಆದರೆ ಶಾಸಕರು ಅಸ್ತಿತ್ವದಲ್ಲಿರುವ AI ವ್ಯವಸ್ಥೆಗಳಿಗೆ ಸಂಬಂಧಿಸಿದ ನೈಜ-ಜೀವನದ ಅಪಾಯಗಳ ಮೇಲೆ ಕೇಂದ್ರೀಕರಿಸುವ ವಿಧಾನವನ್ನು ಅವರು ಪ್ರತಿಬಿಂಬಿಸುತ್ತಾರೆ. ಸುರಕ್ಷತೆಯ ಅಪಾಯಗಳನ್ನು ನಿರ್ಲಕ್ಷಿಸಬೇಕು ಎಂದು ಹೇಳುವುದಿಲ್ಲ; ಸಮಯಕ್ಕೆ, ನಿರ್ದಿಷ್ಟ ಸುರಕ್ಷತಾ ನಿಯಮಗಳು ಬೇಕಾಗಬಹುದು. ಆದರೆ ಭವಿಷ್ಯದ ಅಸ್ತಿತ್ವದ ಅಪಾಯದ ಸ್ವರೂಪ ಮತ್ತು ವ್ಯಾಪ್ತಿಯನ್ನು ಪ್ರಮಾಣೀಕರಿಸುವುದು ಕಷ್ಟ, ಅಂದರೆ ಈಗ ಅದರ ವಿರುದ್ಧ ಕಾನೂನು ಮಾಡುವುದು ಕಷ್ಟ. ಅದನ್ನು ನೋಡಲು, ಕ್ಯಾಲಿಫೋರ್ನಿಯಾದ ರಾಜ್ಯ ಶಾಸಕಾಂಗದ ಮೂಲಕ ಕಾರ್ಯನಿರ್ವಹಿಸುತ್ತಿರುವ ವಿವಾದಾತ್ಮಕ ಕಾನೂನು SB 1047 ಅನ್ನು ನೋಡಬೇಡಿ.

ರಾಸಾಯನಿಕ, ಜೈವಿಕ, ರೇಡಿಯೊಲಾಜಿಕಲ್ ಅಥವಾ ಪರಮಾಣು ಶಸ್ತ್ರಾಸ್ತ್ರಗಳ ಬಳಕೆ ಅಥವಾ ಸೈಬರ್‌ದಾಕ್‌ಗಳ ಮೂಲಕ “ಸಾಮೂಹಿಕ ಸಾವುನೋವುಗಳು” ಅಥವಾ $500 ಮಿಲಿಯನ್‌ಗಿಂತಲೂ ಹೆಚ್ಚು ಮೌಲ್ಯದ ಹಾನಿ ಎಂದು ವ್ಯಾಖ್ಯಾನಿಸಲಾದ ರಾಕ್ಷಸ AI ದುರಂತವನ್ನು ಉಂಟುಮಾಡುವ ಸಾಧ್ಯತೆಯನ್ನು ಮಸೂದೆ ಕಡಿಮೆ ಮಾಡುತ್ತದೆ ಎಂದು ವಕೀಲರು ಹೇಳುತ್ತಾರೆ. ಮೂಲಸೌಕರ್ಯವು ಸುರಕ್ಷತಾ ಪ್ರೋಟೋಕಾಲ್‌ಗಳನ್ನು ಅನುಸರಿಸಲು ಮತ್ತು “ಕಿಲ್ ಸ್ವಿಚ್” ಅನ್ನು ನಿರ್ಮಿಸಲು ದೊಡ್ಡ AI ಮಾದರಿಗಳ ರಚನೆಕಾರರಿಗೆ ಅಗತ್ಯವಿರುತ್ತದೆ. ವಿಮರ್ಶಕರು ಅದರ ರಚನೆಯು ರಿಯಾಲಿಟಿಗಿಂತ ವೈಜ್ಞಾನಿಕ ಕಾಲ್ಪನಿಕತೆಗೆ ಹೆಚ್ಚು ಋಣಿಯಾಗಿದೆ ಮತ್ತು ಅದರ ಅಸ್ಪಷ್ಟ ಮಾತುಗಳು ಕಂಪನಿಗಳನ್ನು ಮಂಡಿರಜ್ಜುಗೊಳಿಸುತ್ತದೆ ಮತ್ತು ಶೈಕ್ಷಣಿಕ ಸ್ವಾತಂತ್ರ್ಯವನ್ನು ನಿಗ್ರಹಿಸುತ್ತದೆ. AI ಸಂಶೋಧಕರಾದ ಆಂಡ್ರ್ಯೂ Ng, ಇದು ಸಂಶೋಧಕರನ್ನು “ಪಾರ್ಶ್ವವಾಯು” ಮಾಡುತ್ತದೆ ಎಂದು ಎಚ್ಚರಿಸಿದ್ದಾರೆ, ಏಕೆಂದರೆ ಅವರು ಕಾನೂನನ್ನು ಹೇಗೆ ಮುರಿಯುವುದನ್ನು ತಪ್ಪಿಸಲು ಖಚಿತವಾಗಿರುವುದಿಲ್ಲ.

ಇದನ್ನೂ ಓದಿ  ಒಲೆಕ್ಟ್ರಾ ಗ್ರೀನ್‌ಟೆಕ್ ಷೇರುಗಳು ಬಲವಾದ ಜೂನ್ ತ್ರೈಮಾಸಿಕ ಗಳಿಕೆಯ ಮೇಲೆ 13% ಏರಿಕೆಯಾಗಿದೆ, 5 ವರ್ಷಗಳಲ್ಲಿ 720% ಹೆಚ್ಚಾಗಿದೆ

ಅದರ ವಿರೋಧಿಗಳಿಂದ ಉಗ್ರ ಲಾಬಿಯ ನಂತರ, ಈ ತಿಂಗಳ ಆರಂಭದಲ್ಲಿ ಬಿಲ್‌ನ ಕೆಲವು ಅಂಶಗಳು ನೀರಸವಾದವು. AI ಕಂಪನಿಗಳಲ್ಲಿ ವಿಸ್ಲ್‌ಬ್ಲೋವರ್‌ಗಳಿಗೆ ರಕ್ಷಣೆಯಂತಹ ಅದರ ಬಿಟ್‌ಗಳು ಅರ್ಥಪೂರ್ಣವಾಗಿವೆ. ಆದರೆ ಹೆಚ್ಚಾಗಿ ಇದು ಅರೆ-ಧಾರ್ಮಿಕ ನಂಬಿಕೆಯ ಮೇಲೆ ಸ್ಥಾಪಿತವಾಗಿದೆ – ಪರಮಾಣು ಅಥವಾ ಜೈವಿಕ ಶಸ್ತ್ರಾಸ್ತ್ರಗಳ ತಯಾರಿಕೆಯು ಬಿಗಿಯಾಗಿ ನಿಯಂತ್ರಿಸಲ್ಪಡುವ ಉಪಕರಣಗಳು ಮತ್ತು ಸಾಮಗ್ರಿಗಳಿಗೆ ಪ್ರವೇಶದ ಅಗತ್ಯವಿರುವಾಗಲೂ AI ದೊಡ್ಡ ಪ್ರಮಾಣದ ದುರಂತ ಹಾನಿಯ ಅಪಾಯವನ್ನು ಉಂಟುಮಾಡುತ್ತದೆ. ಬಿಲ್ ಕ್ಯಾಲಿಫೋರ್ನಿಯಾದ ಗವರ್ನರ್ ಗೇವಿನ್ ನ್ಯೂಸಮ್ ಅವರ ಡೆಸ್ಕ್ ಅನ್ನು ತಲುಪಿದರೆ, ಅವರು ಅದನ್ನು ವೀಟೋ ಮಾಡಬೇಕು. ವಿಷಯಗಳು ನಿಂತಿರುವಂತೆ, ದೊಡ್ಡ AI ಮಾದರಿಯು ಹೇಗೆ ಸಾವು ಅಥವಾ ಭೌತಿಕ ವಿನಾಶಕ್ಕೆ ಕಾರಣವಾಗಬಹುದು ಎಂಬುದನ್ನು ನೋಡುವುದು ಕಷ್ಟ. ಆದರೆ AI ವ್ಯವಸ್ಥೆಗಳು ಈಗಾಗಲೇ ಭೌತಿಕವಲ್ಲದ ಹಾನಿಯನ್ನು ಉಂಟುಮಾಡುವ ಮತ್ತು ಉಂಟುಮಾಡುವ ಹಲವು ಮಾರ್ಗಗಳಿವೆ-ಆದ್ದರಿಂದ ಶಾಸಕರು ಸದ್ಯಕ್ಕೆ ಅವುಗಳ ಮೇಲೆ ಕೇಂದ್ರೀಕರಿಸುವುದು ಸರಿ.

© 2024, The Economist Newspaper Ltd. ಎಲ್ಲಾ ಹಕ್ಕುಗಳನ್ನು ಕಾಯ್ದಿರಿಸಲಾಗಿದೆ. ದಿ ಎಕನಾಮಿಸ್ಟ್‌ನಿಂದ, ಪರವಾನಗಿ ಅಡಿಯಲ್ಲಿ ಪ್ರಕಟಿಸಲಾಗಿದೆ. ಮೂಲ ವಿಷಯವನ್ನು www.economist.com ನಲ್ಲಿ ಕಾಣಬಹುದು

Comments

No comments yet. Why don’t you start the discussion?

Leave a Reply

Your email address will not be published. Required fields are marked *