ದೊಡ್ಡ ಭಾಷಾ ಮಾದರಿಗಳು ಹೇಗೆ ಕಾರ್ಯನಿರ್ವಹಿಸುತ್ತವೆ ಎಂಬುದನ್ನು ಸಂಶೋಧಕರು ಲೆಕ್ಕಾಚಾರ ಮಾಡುತ್ತಿದ್ದಾರೆ

ದೊಡ್ಡ ಭಾಷಾ ಮಾದರಿಗಳು ಹೇಗೆ ಕಾರ್ಯನಿರ್ವಹಿಸುತ್ತವೆ ಎಂಬುದನ್ನು ಸಂಶೋಧಕರು ಲೆಕ್ಕಾಚಾರ ಮಾಡುತ್ತಿದ್ದಾರೆ

LLM ಗಳನ್ನು ಆಳವಾದ ಕಲಿಕೆ ಎಂಬ ತಂತ್ರವನ್ನು ಬಳಸಿಕೊಂಡು ನಿರ್ಮಿಸಲಾಗಿದೆ, ಇದರಲ್ಲಿ ಸಾಫ್ಟ್‌ವೇರ್‌ನಲ್ಲಿ ಅನುಕರಿಸುವ ಮತ್ತು ಮಾನವ ಮೆದುಳಿನ ರಚನೆಯ ಮೇಲೆ ಮಾದರಿಯಾಗಿರುವ ಶತಕೋಟಿ ನ್ಯೂರಾನ್‌ಗಳ ಜಾಲವು ಅಂತರ್ಗತ ಮಾದರಿಗಳನ್ನು ಕಂಡುಹಿಡಿಯಲು ಏನಾದರೂ ಟ್ರಿಲಿಯನ್‌ಗಟ್ಟಲೆ ಉದಾಹರಣೆಗಳಿಗೆ ಒಡ್ಡಿಕೊಳ್ಳುತ್ತದೆ. ಪಠ್ಯ ತಂತಿಗಳ ಮೇಲೆ ತರಬೇತಿ ಪಡೆದಿರುವ, LLM ಗಳು ಸಂಭಾಷಣೆಗಳನ್ನು ಹಿಡಿದಿಟ್ಟುಕೊಳ್ಳಬಹುದು, ವಿವಿಧ ಶೈಲಿಗಳಲ್ಲಿ ಪಠ್ಯವನ್ನು ರಚಿಸಬಹುದು, ಸಾಫ್ಟ್‌ವೇರ್ ಕೋಡ್ ಬರೆಯಬಹುದು, ಭಾಷೆಗಳ ನಡುವೆ ಅನುವಾದಿಸಬಹುದು ಮತ್ತು ಹೆಚ್ಚಿನದನ್ನು ಮಾಡಬಹುದು.

AI ಸ್ಟಾರ್ಟ್‌ಅಪ್‌ನ ಆಂಥ್ರೊಪಿಕ್‌ನ ಸಂಶೋಧಕ ಜೋಶ್ ಬ್ಯಾಟ್ಸನ್ ಹೇಳುತ್ತಾರೆ, ವಿನ್ಯಾಸಕ್ಕಿಂತ ಹೆಚ್ಚಾಗಿ ಮಾದರಿಗಳು ಮೂಲಭೂತವಾಗಿ ಬೆಳೆದವು. LLM ಗಳನ್ನು ಸ್ಪಷ್ಟವಾಗಿ ಪ್ರೋಗ್ರಾಮ್ ಮಾಡದ ಕಾರಣ, ಅವರು ಅಂತಹ ಅಸಾಮಾನ್ಯ ಸಾಮರ್ಥ್ಯಗಳನ್ನು ಏಕೆ ಹೊಂದಿದ್ದಾರೆಂದು ಯಾರಿಗೂ ಸಂಪೂರ್ಣವಾಗಿ ಖಚಿತವಾಗಿಲ್ಲ. ಎಲ್‌ಎಲ್‌ಎಂಗಳು ಕೆಲವೊಮ್ಮೆ ತಪ್ಪಾಗಿ ವರ್ತಿಸುತ್ತವೆ, ಅಥವಾ “ಭ್ರಮೆಗಳು” ಎಂದು ಕರೆಯಲ್ಪಡುವ ತಪ್ಪು ಅಥವಾ ತಯಾರಿಸಿದ ಉತ್ತರಗಳನ್ನು ಏಕೆ ನೀಡುತ್ತವೆ ಎಂದು ಅವರಿಗೆ ತಿಳಿದಿಲ್ಲ. ಎಲ್‌ಎಲ್‌ಎಂಗಳು ನಿಜವಾಗಿಯೂ ಕಪ್ಪು ಪೆಟ್ಟಿಗೆಗಳಾಗಿವೆ. ಇದು ಆತಂಕಕಾರಿಯಾಗಿದೆ, ಏಕೆಂದರೆ ಅವುಗಳು ಮತ್ತು ಇತರ ಆಳವಾದ ಕಲಿಕೆಯ ವ್ಯವಸ್ಥೆಗಳು ಎಲ್ಲರಿಗೂ ಬಳಸಲು ಪ್ರಾರಂಭಿಸುತ್ತಿವೆ. ಗ್ರಾಹಕ ಬೆಂಬಲವನ್ನು ನೀಡುವುದರಿಂದ ಹಿಡಿದು ಡಾಕ್ಯುಮೆಂಟ್ ಸಾರಾಂಶಗಳನ್ನು ಸಿದ್ಧಪಡಿಸುವವರೆಗೆ ಸಾಫ್ಟ್‌ವೇರ್ ಕೋಡ್ ಬರೆಯುವವರೆಗೆ ವಿಷಯಗಳ ಪ್ರಕಾರಗಳು.

ಕಾರ್ ಇಂಜಿನ್ ಅಥವಾ ಮೈಕ್ರೊಪ್ರೊಸೆಸರ್‌ನೊಂದಿಗೆ ಮಾಡಲು ಸರಿಯಾದ ಪರಿಕರಗಳನ್ನು ನೀಡಿದರೆ, ಸಾಧ್ಯವಿರುವಂತೆಯೇ ಏನು ನಡೆಯುತ್ತಿದೆ ಎಂಬುದನ್ನು ನೋಡಲು LLM ಒಳಗೆ ಸುತ್ತಲು ಸಾಧ್ಯವಾಗುವುದು ಸಹಾಯಕವಾಗುತ್ತದೆ. ಬಾಟಮ್-ಅಪ್, ಫೋರೆನ್ಸಿಕ್ ವಿವರಗಳಲ್ಲಿ ಮಾದರಿಯ ಆಂತರಿಕ ಕಾರ್ಯಗಳನ್ನು ಅರ್ಥಮಾಡಿಕೊಳ್ಳಲು ಸಾಧ್ಯವಾಗುವಂತೆ “ಯಾಂತ್ರಿಕ ವ್ಯಾಖ್ಯಾನ” ಎಂದು ಕರೆಯಲಾಗುತ್ತದೆ. ಆದರೆ ಇದು ಶತಕೋಟಿ ಆಂತರಿಕ ನ್ಯೂರಾನ್‌ಗಳನ್ನು ಹೊಂದಿರುವ ನೆಟ್‌ವರ್ಕ್‌ಗಳಿಗೆ ಬೆದರಿಸುವ ಕೆಲಸವಾಗಿದೆ. ಇದು ಡಾ ಬ್ಯಾಟ್ಸನ್ ಮತ್ತು ಅವರ ಸಹೋದ್ಯೋಗಿಗಳು ಸೇರಿದಂತೆ ಜನರು ಪ್ರಯತ್ನಿಸುವುದನ್ನು ನಿಲ್ಲಿಸಿಲ್ಲ. ಮೇ ತಿಂಗಳಲ್ಲಿ ಪ್ರಕಟವಾದ ಪತ್ರಿಕೆಯಲ್ಲಿ, ಅವರು ಆಂಥ್ರೊಪಿಕ್‌ನ ಎಲ್‌ಎಲ್‌ಎಂಗಳ ಕಾರ್ಯನಿರ್ವಹಣೆಯ ಬಗ್ಗೆ ಹೊಸ ಒಳನೋಟವನ್ನು ಹೇಗೆ ಪಡೆದುಕೊಂಡಿದ್ದಾರೆ ಎಂಬುದನ್ನು ವಿವರಿಸಿದರು.

LLM ನೊಳಗಿನ ಪ್ರತ್ಯೇಕ ನ್ಯೂರಾನ್‌ಗಳು ನಿರ್ದಿಷ್ಟ ಪದಗಳಿಗೆ ಹೊಂದಿಕೆಯಾಗುತ್ತವೆ ಎಂದು ಒಬ್ಬರು ಭಾವಿಸಬಹುದು. ದುರದೃಷ್ಟವಶಾತ್, ವಿಷಯಗಳು ಅಷ್ಟು ಸುಲಭವಲ್ಲ. ಬದಲಾಗಿ, ಪ್ರತ್ಯೇಕ ಪದಗಳು ಅಥವಾ ಪರಿಕಲ್ಪನೆಗಳು ನ್ಯೂರಾನ್‌ಗಳ ಸಂಕೀರ್ಣ ಮಾದರಿಗಳ ಸಕ್ರಿಯಗೊಳಿಸುವಿಕೆಯೊಂದಿಗೆ ಸಂಬಂಧಿಸಿವೆ, ಮತ್ತು ಪ್ರತ್ಯೇಕ ನ್ಯೂರಾನ್‌ಗಳನ್ನು ವಿವಿಧ ಪದಗಳು ಅಥವಾ ಪರಿಕಲ್ಪನೆಗಳಿಂದ ಸಕ್ರಿಯಗೊಳಿಸಬಹುದು. 2022 ರಲ್ಲಿ ಪ್ರಕಟವಾದ ಆಂಥ್ರೊಪಿಕ್‌ನ ಸಂಶೋಧಕರು ಹಿಂದಿನ ಕೆಲಸದಲ್ಲಿ ಈ ಸಮಸ್ಯೆಯನ್ನು ಸೂಚಿಸಿದ್ದಾರೆ. ಅವರು ವಿವಿಧ ಪರಿಹಾರೋಪಾಯಗಳನ್ನು ಪ್ರಸ್ತಾಪಿಸಿದರು ಮತ್ತು ನಂತರ ಪ್ರಯತ್ನಿಸಿದರು, 2023 ರಲ್ಲಿ “ವಿರಳವಾದ ಆಟೋಎನ್‌ಕೋಡರ್” ಎಂದು ಕರೆಯಲ್ಪಡುವ ಅತ್ಯಂತ ಸಣ್ಣ ಭಾಷಾ ಮಾದರಿಗಳಲ್ಲಿ ಉತ್ತಮ ಫಲಿತಾಂಶಗಳನ್ನು ಸಾಧಿಸಿದರು. ಅವರ ಇತ್ತೀಚಿನ ಮಾಹಿತಿಯಲ್ಲಿ ಫಲಿತಾಂಶಗಳು ಅವರು ಕ್ಲೌಡ್ 3 ಸಾನೆಟ್, ಪೂರ್ಣ-ಗಾತ್ರದ LLM ನೊಂದಿಗೆ ಕೆಲಸ ಮಾಡಲು ಈ ವಿಧಾನವನ್ನು ಹೆಚ್ಚಿಸಿದ್ದಾರೆ.

ವಿರಳವಾದ ಆಟೋಎನ್‌ಕೋಡರ್, ಮೂಲಭೂತವಾಗಿ, LLM ನ ಚಟುವಟಿಕೆಯ ಮೇಲೆ ತರಬೇತಿ ಪಡೆದ ಎರಡನೇ ಚಿಕ್ಕ ನರಮಂಡಲವಾಗಿದೆ, ಅದರ ನ್ಯೂರಾನ್‌ಗಳ “ವಿರಳ” (ಅಂದರೆ, ತುಂಬಾ ಚಿಕ್ಕ) ಗುಂಪುಗಳು ಒಟ್ಟಿಗೆ ಬೆಂಕಿಯಾಡಿದಾಗ ಚಟುವಟಿಕೆಯಲ್ಲಿ ವಿಭಿನ್ನ ಮಾದರಿಗಳನ್ನು ಹುಡುಕುತ್ತದೆ. , ವೈಶಿಷ್ಟ್ಯಗಳನ್ನು ಗುರುತಿಸಲಾಗಿದೆ, ಯಾವ ಪದಗಳು ಯಾವ ವೈಶಿಷ್ಟ್ಯಗಳನ್ನು ಪ್ರಚೋದಿಸುತ್ತವೆ ಎಂಬುದನ್ನು ಸಂಶೋಧಕರು ನಿರ್ಧರಿಸಬಹುದು, ಆಂಥ್ರೊಪಿಕ್ ತಂಡವು ನಿರ್ದಿಷ್ಟ ನಗರಗಳು, ಜನರು, ಪ್ರಾಣಿಗಳು ಮತ್ತು ರಾಸಾಯನಿಕ ಅಂಶಗಳಿಗೆ ಅನುಗುಣವಾದ ವೈಯಕ್ತಿಕ ವೈಶಿಷ್ಟ್ಯಗಳನ್ನು ಮತ್ತು ಸಾರಿಗೆ ಮೂಲಸೌಕರ್ಯದಂತಹ ಉನ್ನತ ಮಟ್ಟದ ಪರಿಕಲ್ಪನೆಗಳನ್ನು ಕಂಡುಹಿಡಿದಿದೆ. ಪ್ರಸಿದ್ಧ ಮಹಿಳಾ ಟೆನಿಸ್ ಆಟಗಾರರು, ಅಥವಾ ಗೌಪ್ಯತೆಯ ಕಲ್ಪನೆಯನ್ನು ಅವರು ಮೂರು ಬಾರಿ ಪ್ರದರ್ಶಿಸಿದರು, 1m, 4m ಮತ್ತು ಕೊನೆಯ ಪ್ರಯಾಣದಲ್ಲಿ, ಸಾನೆಟ್ LLM ನಲ್ಲಿ 34m ವೈಶಿಷ್ಟ್ಯಗಳನ್ನು ಗುರುತಿಸಿದರು.

ಫಲಿತಾಂಶವು LLM ನ ಒಂದು ರೀತಿಯ ಮೈಂಡ್-ಮ್ಯಾಪ್ ಆಗಿದೆ, ಅದರ ತರಬೇತಿ ಡೇಟಾದಿಂದ ಅದು ಕಲಿತ ಪರಿಕಲ್ಪನೆಗಳ ಒಂದು ಸಣ್ಣ ಭಾಗವನ್ನು ತೋರಿಸುತ್ತದೆ. ಭೌಗೋಳಿಕವಾಗಿ ಹತ್ತಿರವಿರುವ ಸ್ಯಾನ್ ಫ್ರಾನ್ಸಿಸ್ಕೊ ​​​​ಕೊಲ್ಲಿ ಪ್ರದೇಶದ ಸ್ಥಳಗಳು ಪರಿಕಲ್ಪನೆಯ ಜಾಗದಲ್ಲಿ ಪರಸ್ಪರ “ಹತ್ತಿರ” ಇವೆ, ರೋಗಗಳು ಅಥವಾ ಭಾವನೆಗಳಂತಹ ಸಂಬಂಧಿತ ಪರಿಕಲ್ಪನೆಗಳು. “ಇದು ರೋಮಾಂಚನಕಾರಿಯಾಗಿದೆ ಏಕೆಂದರೆ ನಾವು ಭಾಗಶಃ ಪರಿಕಲ್ಪನಾ ನಕ್ಷೆಯನ್ನು ಹೊಂದಿದ್ದೇವೆ, ಮಬ್ಬು , ಏನಾಗುತ್ತಿದೆ,” ಡಾ ಬ್ಯಾಟ್ಸನ್ ಹೇಳುತ್ತಾರೆ. “ಮತ್ತು ಅದು ಪ್ರಾರಂಭದ ಹಂತವಾಗಿದೆ-ನಾವು ಆ ನಕ್ಷೆಯನ್ನು ಉತ್ಕೃಷ್ಟಗೊಳಿಸಬಹುದು ಮತ್ತು ಅಲ್ಲಿಂದ ಕವಲೊಡೆಯಬಹುದು.”

ಮನಸ್ಸನ್ನು ಕೇಂದ್ರೀಕರಿಸಿ

LLM ನ ಭಾಗಗಳು ಬೆಳಗುವುದನ್ನು ನೋಡುವುದರ ಜೊತೆಗೆ, ನಿರ್ದಿಷ್ಟ ಪರಿಕಲ್ಪನೆಗಳಿಗೆ ಪ್ರತಿಕ್ರಿಯೆಯಾಗಿ, ವೈಯಕ್ತಿಕ ವೈಶಿಷ್ಟ್ಯಗಳನ್ನು ಕುಶಲತೆಯಿಂದ ಅದರ ನಡವಳಿಕೆಯನ್ನು ಬದಲಾಯಿಸಲು ಸಹ ಸಾಧ್ಯವಿದೆ. ಗೋಲ್ಡನ್ ಗೇಟ್ ಸೇತುವೆಗೆ ಸಂಬಂಧಿಸಿದ ವೈಶಿಷ್ಟ್ಯವನ್ನು “ಸ್ಪೈಕಿಂಗ್” (ಅಂದರೆ, ತಿರುಗುವಿಕೆ) ಮೂಲಕ ಆಂಥ್ರೊಪಿಕ್ ಈ ಕಲ್ಪನೆಯನ್ನು ಪರೀಕ್ಷಿಸಿದೆ. ಇದರ ಫಲಿತಾಂಶವು ಕ್ಲೌಡ್‌ನ ಆವೃತ್ತಿಯಾಗಿದ್ದು ಅದು ಸೇತುವೆಯ ಗೀಳನ್ನು ಹೊಂದಿತ್ತು ಮತ್ತು ಯಾವುದೇ ಅವಕಾಶದಲ್ಲಿ ಅದನ್ನು ಉಲ್ಲೇಖಿಸಿದೆ. $10 ಅನ್ನು ಹೇಗೆ ಖರ್ಚು ಮಾಡುವುದು ಎಂದು ಕೇಳಿದಾಗ , ಉದಾಹರಣೆಗೆ, ಇದು ಟೋಲ್ ಪಾವತಿಸಲು ಮತ್ತು ಸೇತುವೆಯ ಮೇಲೆ ಚಾಲನೆ ಮಾಡಲು ಸಲಹೆ ನೀಡಿತು, ಒಂದು ಪ್ರೇಮಕಥೆಯನ್ನು ಬರೆಯಲು ಕೇಳಿದಾಗ, ಅದನ್ನು ದಾಟಲು ಕಾಯಲು ಸಾಧ್ಯವಾಗದ ಲವ್ಲೋರ್ನ್ ಕಾರ್ ಅನ್ನು ಅದು ನಿರ್ಮಿಸಿದೆ.

ಅದು ಸಿಲ್ಲಿ ಎನಿಸಬಹುದು, ಆದರೆ ಜೈವಿಕ ಶಸ್ತ್ರಾಸ್ತ್ರಗಳ ಉತ್ಪಾದನೆಯಂತಹ ನಿರ್ದಿಷ್ಟ ವಿಷಯಗಳ ಬಗ್ಗೆ ಮಾತನಾಡದಂತೆ ಮಾದರಿಯನ್ನು ನಿರುತ್ಸಾಹಗೊಳಿಸಲು ಅದೇ ತತ್ವವನ್ನು ಬಳಸಬಹುದು. “AI ಸುರಕ್ಷತೆಯು ಇಲ್ಲಿ ಪ್ರಮುಖ ಗುರಿಯಾಗಿದೆ,” ಡಾ ಬ್ಯಾಟ್ಸನ್ ಹೇಳುತ್ತಾರೆ. ಇದನ್ನು ನಡವಳಿಕೆಗಳಿಗೂ ಅನ್ವಯಿಸಬಹುದು. ನಿರ್ದಿಷ್ಟ ವೈಶಿಷ್ಟ್ಯಗಳನ್ನು ಟ್ಯೂನ್ ಮಾಡುವ ಮೂಲಕ, ಮಾದರಿಗಳನ್ನು ಹೆಚ್ಚು ಅಥವಾ ಕಡಿಮೆ ಸಿಕೋಫಾಂಟಿಕ್, ಪರಾನುಭೂತಿ ಅಥವಾ ಮೋಸಗೊಳಿಸಬಹುದು. ಪ್ರವೃತ್ತಿಗೆ ಅನುಗುಣವಾದ ವೈಶಿಷ್ಟ್ಯವು ಹೊರಹೊಮ್ಮಬಹುದು “ನಾವು ಧೂಮಪಾನ ಗನ್ ಅನ್ನು ಕಂಡುಹಿಡಿಯಲಿಲ್ಲ” ಎಂದು ಡಾ ಬ್ಯಾಟ್ಸನ್ ಹೇಳುತ್ತಾರೆ. ಭ್ರಮೆಗಳು ಗುರುತಿಸಬಹುದಾದ ಕಾರ್ಯವಿಧಾನ ಅಥವಾ ಸಹಿಯನ್ನು ಹೊಂದಿದೆಯೇ ಎಂದು ಅವರು ಹೇಳುತ್ತಾರೆ, “ಮಿಲಿಯನ್-ಡಾಲರ್ ಪ್ರಶ್ನೆ” ಮತ್ತು ಇದು ಮತ್ತೊಂದು ಗುಂಪಿನ ಸಂಶೋಧಕರು, ನೇಚರ್‌ನಲ್ಲಿನ ಹೊಸ ಪ್ರಬಂಧದಲ್ಲಿ ತಿಳಿಸಲಾಗಿದೆ.

ಆಕ್ಸ್‌ಫರ್ಡ್ ವಿಶ್ವವಿದ್ಯಾನಿಲಯದಲ್ಲಿ ಸೆಬಾಸ್ಟಿಯನ್ ಫರ್ಕ್ಹರ್ ಮತ್ತು ಸಹೋದ್ಯೋಗಿಗಳು “ಸೆಮ್ಯಾಂಟಿಕ್ ಎಂಟ್ರೊಪಿ” ಎಂಬ ಅಳತೆಯನ್ನು LLM ನಿಂದ ಒಂದು ಹೇಳಿಕೆಯು ಭ್ರಮೆಯಾಗಬಹುದೇ ಅಥವಾ ಇಲ್ಲವೇ ಎಂಬುದನ್ನು ನಿರ್ಣಯಿಸಲು ಬಳಸಿದರು.ಅವರ ತಂತ್ರವು ತುಂಬಾ ಸರಳವಾಗಿದೆ: ಮೂಲಭೂತವಾಗಿ, LLM ಗೆ ಅದೇ ಪ್ರಾಂಪ್ಟ್ ಅನ್ನು ನೀಡಲಾಗುತ್ತದೆ. ಸಮಯ, ಮತ್ತು ಅದರ ಉತ್ತರಗಳನ್ನು ನಂತರ “ಶಬ್ದಾರ್ಥದ ಹೋಲಿಕೆ” (ಅಂದರೆ, ಅವುಗಳ ಅರ್ಥದ ಪ್ರಕಾರ) ಮೂಲಕ ಕ್ಲಸ್ಟರ್ ಮಾಡಲಾಗುತ್ತದೆ. ಸಂಶೋಧಕರ ಊಹೆಯೆಂದರೆ, ಈ ಉತ್ತರಗಳ “ಎಂಟ್ರೊಪಿ” – ಬೇರೆ ರೀತಿಯಲ್ಲಿ ಹೇಳುವುದಾದರೆ, ಅಸಮಂಜಸತೆಯ ಮಟ್ಟವು – LLM ನ ಅನಿಶ್ಚಿತತೆಗೆ ಅನುರೂಪವಾಗಿದೆ ಮತ್ತು ಆದ್ದರಿಂದ ಭ್ರಮೆಯ ಸಂಭವನೀಯತೆ. ಅದರ ಎಲ್ಲಾ ಉತ್ತರಗಳು ಮೂಲಭೂತವಾಗಿ ವಿಷಯದ ಮೇಲೆ ವ್ಯತ್ಯಾಸವಾಗಿದ್ದರೆ, ಅವು ಬಹುಶಃ ಭ್ರಮೆಗಳಲ್ಲ (ಅವುಗಳು ಇನ್ನೂ ತಪ್ಪಾಗಿರಬಹುದು).

ಒಂದು ಉದಾಹರಣೆಯಲ್ಲಿ, ಆಕ್ಸ್‌ಫರ್ಡ್ ಗುಂಪು LLM ಅನ್ನು ಯಾವ ದೇಶವು ಫ್ಯಾಡೋ ಸಂಗೀತದೊಂದಿಗೆ ಸಂಬಂಧಿಸಿದೆ ಎಂದು ಕೇಳಿತು, ಮತ್ತು ಇದು ಫಾಡೋ ಪೋರ್ಚುಗಲ್‌ನ ರಾಷ್ಟ್ರೀಯ ಸಂಗೀತವಾಗಿದೆ ಎಂದು ಸ್ಥಿರವಾಗಿ ಉತ್ತರಿಸಿತು-ಇದು ಸರಿಯಾಗಿದೆ ಮತ್ತು ಭ್ರಮೆಯಲ್ಲ. ಆದರೆ ಸ್ಟಾರ್‌ಡಿ 10 ಎಂಬ ಪ್ರೋಟೀನ್‌ನ ಕಾರ್ಯದ ಬಗ್ಗೆ ಕೇಳಿದಾಗ, ಮಾದರಿಯು ಹಲವಾರು ವಿಭಿನ್ನ ಉತ್ತರಗಳನ್ನು ನೀಡಿತು, ಇದು ಭ್ರಮೆಯನ್ನು ಸೂಚಿಸುತ್ತದೆ. (ಸಂಶೋಧಕರು “ಕನ್ಫ್ಯಾಬ್ಯುಲೇಷನ್” ಎಂಬ ಪದವನ್ನು ಬಯಸುತ್ತಾರೆ, ಅವರು “ಅನಿಯಂತ್ರಿತ ಮತ್ತು ತಪ್ಪಾದ ತಲೆಮಾರುಗಳು” ಎಂದು ವ್ಯಾಖ್ಯಾನಿಸುವ ಭ್ರಮೆಗಳ ಉಪವಿಭಾಗವಾಗಿದೆ.) ಒಟ್ಟಾರೆಯಾಗಿ, ಈ ವಿಧಾನವು ನಿಖರವಾದ ಹೇಳಿಕೆಗಳು ಮತ್ತು ಭ್ರಮೆಗಳ ನಡುವೆ 79% ಸಮಯವನ್ನು ಪ್ರತ್ಯೇಕಿಸಲು ಸಾಧ್ಯವಾಯಿತು; ಹಿಂದಿನ ವಿಧಾನಗಳಿಗಿಂತ ಹತ್ತು ಶೇಕಡಾವಾರು ಅಂಕಗಳು ಉತ್ತಮವಾಗಿವೆ. ಈ ಕೆಲಸವು ಅನೇಕ ರೀತಿಯಲ್ಲಿ ಆಂಥ್ರೊಪಿಕ್‌ಗೆ ಪೂರಕವಾಗಿದೆ.

ಇತರರು LLM ಗಳ ಮೇಲೆ ಮುಚ್ಚಳವನ್ನು ಎತ್ತುತ್ತಿದ್ದಾರೆ: GPT-4 ಮತ್ತು ChatGPT ತಯಾರಕರಾದ OpenAI ನಲ್ಲಿನ “ಸೂಪರ್‌ಲೈನ್‌ಮೆಂಟ್” ತಂಡವು ಜೂನ್‌ನಲ್ಲಿ ವಿರಳ ಆಟೋಎನ್‌ಕೋಡರ್‌ಗಳ ಕುರಿತು ತನ್ನದೇ ಆದ ಕಾಗದವನ್ನು ಬಿಡುಗಡೆ ಮಾಡಿತು, ಆದರೂ ಹಲವಾರು ಸಂಶೋಧಕರು ಸಂಸ್ಥೆಯನ್ನು ತೊರೆದ ನಂತರ ತಂಡವನ್ನು ಈಗ ವಿಸರ್ಜಿಸಲಾಗಿದೆ. ಆದರೆ ಓಪನ್‌ಎಐ ಪೇಪರ್‌ನಲ್ಲಿ ಕೆಲವು ನವೀನ ವಿಚಾರಗಳಿವೆ ಎಂದು ಡಾ.ಬ್ಯಾಟ್ಸನ್ ಹೇಳುತ್ತಾರೆ, “ಮಾದರಿಗಳನ್ನು ಉತ್ತಮವಾಗಿ ಅರ್ಥಮಾಡಿಕೊಳ್ಳಲು ಕೆಲಸ ಮಾಡುತ್ತಿರುವ ಗುಂಪುಗಳನ್ನು ನೋಡಲು ನಾವು ನಿಜವಾಗಿಯೂ ಸಂತೋಷಪಡುತ್ತೇವೆ” ಎಂದು ಅವರು ಹೇಳುತ್ತಾರೆ. “ಎಲ್ಲರೂ ಅದನ್ನು ಮಾಡಬೇಕೆಂದು ನಾವು ಬಯಸುತ್ತೇವೆ.”

© 2024, ದಿ ಎಕನಾಮಿಸ್ಟ್ ನ್ಯೂಸ್‌ಪೇಪರ್ ಲಿಮಿಟೆಡ್. ಎಲ್ಲಾ ಹಕ್ಕುಗಳನ್ನು ಕಾಯ್ದಿರಿಸಲಾಗಿದೆ. ದಿ ಎಕನಾಮಿಸ್ಟ್‌ನಿಂದ, ಪರವಾನಗಿ ಅಡಿಯಲ್ಲಿ ಪ್ರಕಟಿಸಲಾಗಿದೆ. ಮೂಲ ವಿಷಯವನ್ನು www.economist.com ನಲ್ಲಿ ಕಾಣಬಹುದು

Comments

No comments yet. Why don’t you start the discussion?

Leave a Reply

Your email address will not be published. Required fields are marked *