چهارشنبه ۰۹ آبان ۱۴۰۳ 30 October 2024
چهارشنبه ۲۱ تير ۱۴۰۲ - ۱۴:۱۳
کد خبر: ۶۴۰۹۴

صاحبان کسب و کار، مراقب خطرات استفاده از هوش مصنوعی باشند!

صاحبان کسب و کار، مراقب خطرات استفاده از هوش مصنوعی باشند!
اگر سازمان‌ها و صاجبان کسب‌وکارها به خطرات احتمالی استفاده از فناوری هوش مصنوعی توجه نکنند، نقاط آسیب‌پذیر سازمانی، به احتمال زیاد فرصت‌های تحول آن کسب‌وکار را تحت الشعاع قرار خواهند داد. این بی‌توجهی در عین حال باعث می‌شود که کسب‌وکارها سرعت رشد فناوری‌محور را از دست بدهند.
نویسنده :
سینا جهانی

در میان تبلیغات اخیر برای «چت جی‌پی‌تی» (Chat GPT) و دیگر فناوری‌های هوش مصنوعی مولد، بسیاری مشتاقند تا از پتانسیلی که این فناوری پیشرفته در اختیار قرار می‌دهد استفاده کنند. با این حال، تحقیقات متنوع در مورد هوش مصنوعی، از جمله نظرسنجی سال ۲۰۲۲ «بیکر مک‌کنزی» در آمریکای شمالی نشان می‌دهد که مدیران کسب‌وکارها ممکن است با توجه بیش از حد به فواید هوش مصنوعی، خطرات مرتبط با این فناوری را برای سازمان خود نادیده بگیرند. تنها ۴درصد از شرکت‌کننده‌های این نظرسنجی گفته‌اند که خطرات مرتبط با استفاده از هوش مصنوعی را «مهم» می‌دانند و کمتر از نیمی از آنها گفته‌اند که در هیأت‌های مدیره کسب‌وکارهاشان، تخصص کافی در مورد هوش مصنوعی وجود دارد.

 

نتایج این نظرسنجی، کمی نگران‌کننده است. بسیاری از سازمان‌ها آمادگی کافی برای استفاده ازهوش مصنوعی ندارند و از تخصص مدیریت ریسک در سطح تصمیم‌گیرندگان کلیدی بی‌بهره‌اند. اگر به خطرات احتمالی استفاده از فناوری هوش مصنوعی توجه نشود، نقاط کور سازمان‌ها به احتمال زیاد، فرصت‌های تحول آن کسب‌وکار را تحت الشعاع قرار خواهند داد. این بی‌توجهی در عین حال باعث می‌شود که سازمان‌ها سرعت رشد فناوری‌محور را از دست بدهند.

 

هوش مصنوعی مولد چگونه چشم انداز ریسک را تغییر می‌دهد؟

 

این روزها، فرایند پیشرفت و تطبیق‌پذیری در بستر هوش مصنوعی با نرخ تصاعدی پیش می‌رود. این رشد تصاعدی، تمرکز بر استفاده از هوش مصنوعی را در سازمان‌ها و کمپانی‌های مختلف در سراسر جهان احیا کرده است. طبق آخرین نظرسنجی‌ها، حدود ۷۵درصد از شرکت‌ها و کمپانی‌ها در حال حاضر برای استخدام و منابع انسانی از ابزار و فناوری هوش مصنوعی استفاده می‌کنند. همزمان اما دانشگاهیان، دانشمندان، سیاست‌گذاران و حقوق‌دان‌ها، مدتی است که برای به‌کارگیری اخلاقی و قانونی از هوش مصنوعی، به ویژه در محل کار و در مواردی مثل استعدادیابی و آموزش کارکنان تاکید می‌کنند.

 

امروز، در مرحله تازه‌ای از بهره‌گیری انسان از هوش مصنوعی مولد قرار داریم. مرحله‌ای که در آن، اصول اصلی و پیش‌شرط‌هایی مثل حکمرانی، پاسخگویی و شفافیت، بیش از هر زمان دیگری جلوه پیدا کرده‌اند. همزمان، نگرانی‌ها از فناوری‌های توسعه‌نیافته هوش مصنوعی نیز افزایش یافته‌اند. به عنوان مثال، الگوریتم‌های کنترل‌نشده می‌توانند منجر به نتایج مغرضانه و تبعیض‌آمیز، تداوم نابرابری و کاهش تنوع نیروی کار شوند. حریم خصوصی و افشای داده‌ها نیز نگرانی دیگری است که به راحتی از طریق جمع آوری داده های کارکنان می‌تواند رقم بخورد.

 

در مدت اخیر، به طور کلی شاهد سعی دولت‌ها و دستگاه‌های نظارتی در تصویب و اجرای قوانین مرتبط با هوش مصنوعی بوده‌ایم. بری مثال در ایالات متحده این قوانین نوظهور، در زمینه بهره‌گیری از هوش مصنوعی در استخدام و عملیات مرتبط با منابع انسانی متمرکز خواهد بود.

 

سازمان‌هایی که هوش مصنوعی مولد را در سیستم‌های اداری و اتوماسیون خود پیاده‌سازی می‌کنند باید فرض کنند که داده‌های وارد شده به ابزارها و همچنین پرسش‌های هوش مصنوعی، توسط ارائه‌دهندگان این فناوری جمع‌آوری می‌شوند. در برخی موارد، این ارائه دهندگان حق استفاده و یا افشای این اطلاعات را خواهند داشت. آیا کارفرمایان با تجهیز نیروی کار خود به ابزارهای مولد هوش مصنوعی، داده‌های حساس و اسرار تجاری را در معرض خطر قرار می‌دهند؟ جواب در یک کلام: بله!  در مجموع، به نظر می‌رسد هر توسعه جدید پیش از آن‌که پاسخ‌های تازه‌ای داشته باشد، ابهامات جدی‌تری را برای سازمان‌ها، قانون‌گذاران و دادگاه‌ها ایجاد خواهد کرد.

 

چطور آمادگی استفاده از هوش مصنوعی را برای کسب و کار خود افزایش دهیم؟

 

هوش مصنوعی مولد در حال تغییر الگو است و استفاده‌های ویژه از این فناوردی، خطرات خاص خود را به همراه خواهد داشت. سازمان‌ها برای عقب نماندن از زمان، باید رویکردهای فعلی را به چیزی فراتر از مشتی تلاش بی‌حساب و کتاب تغییر داده و عملکردهای منقطع و بی‌برنامه‌شان را پیرامون چارچوب‌های مدیریتی قدرتمند گردآوری کنند. در حالی که بسیاری از سازمان ها برای مدیریت و پیشگام شدن در ابتکارات هوش مصنوعی به دانشمندان حوزه فناوری و داده تکیه می‌کنند، همه ذینفعان مرتبط از جمله بخش‌‌های حقوقی، هیأت مدیره، حراست از حریم خصوصی و منابع انسانی، باید در تمام فرآیند تصمیم‌گیری سازمان یا شرکت، مشارکت داشته باشند.

 

در نظرسنجی «مک کنزی» تنها ۵۴درصد از پاسخ دهندگان گفته‌اند که سازمان یا کسب‌وکارشان، مسوولان منابع انسانی را در فرآیند تصمیم گیری برای استفاده از ابزارهای هوش مصنوعی درگیر می‌کند و تنها ۳۶درصد از پاسخ دهندگان گفتند که یک مدیر ارشد متخصص هوش مصنوعی دارند.

 

در این محیط پرخطر، مدیر ارشد هوش مصنوعی، برای اطمینان از وجود مدیریت مناسب و نظارت مربوطه در سطح مدیران ارشد، نقش مهمی ایفا می‌کند. مدیر هوش مصنوعی، منابع انسانی شرکت یا سازمان را در آموزش یک تیم هوش مصنوعی کارآمد مشارکت خواهد داد. علاوه بر این، سازمان‌ها باید چارچوب مدیریت داخلی‌شان را تدوین کرده و از آن پیروی کنند تا ریسک‌های سازمانی در همه موارد قابل محاسبه باشد. این اقدام به شرکت اجازه می‌دهد تا پس از شناسایی مسایل مختلف، فرایند انطباق صحیح با شرایط تازه را به طور موثر طی کند. عدم وجود ساختار منطبق با فناوری‌های هوش مصنوعی و فقدان نظارت از سوی ذینفعان کلیدی، می‌تواند مسوولیت‌های قانونی تازه‌ای را، از جمله ادعای تبعیض دراستعدادیابی یا استخدام، برای سازمان خلق کند.

 

چشم انداز نهایی

 

سرعت استفاده از هوش مصنوعی با رشد قابل توجهی افزایش یافته است. این فناوری مزایای بسیاری برای سازمان‌ها و شرکت‌ها ارایه می‌دهد اما سرعت گسترش و توسعه آن به قدری زیاد است که نظارت استراتژیک و مدیریت ساختاری برای استفاده مسوولانه از آن، روز به روز حیاتی تر می‌شود.

 

سازمان‌ها می‌توانند با ایجاد ساختارهای مدیریتی و نظارتی قوی، بدون توجه به جایگاهی که در آن قرار دارند، در برابر جزر و مدهای اقیانوس این فناوری مقاوم‌تر شوند. با وجود یک چارچوب امن، سازمان ها می توانند خود را قادر سازند تا فناوری هوش مصنوعی را به کار گرفته و از مزایای آن با اطمینان بیشتری بهره ببرند.

 

منبع خبر : World Economic Forum
برچسب ها:
ارسال نظر
captcha
captcha
پربازدیدترین ویدیوها
  • تازه‌ها
  • پربازدیدها
پیشنهاد سردبیر
زندگی