در میان تبلیغات اخیر برای «چت جیپیتی» (Chat GPT) و دیگر فناوریهای هوش مصنوعی مولد، بسیاری مشتاقند تا از پتانسیلی که این فناوری پیشرفته در اختیار قرار میدهد استفاده کنند. با این حال، تحقیقات متنوع در مورد هوش مصنوعی، از جمله نظرسنجی سال ۲۰۲۲ «بیکر مککنزی» در آمریکای شمالی نشان میدهد که مدیران کسبوکارها ممکن است با توجه بیش از حد به فواید هوش مصنوعی، خطرات مرتبط با این فناوری را برای سازمان خود نادیده بگیرند. تنها ۴درصد از شرکتکنندههای این نظرسنجی گفتهاند که خطرات مرتبط با استفاده از هوش مصنوعی را «مهم» میدانند و کمتر از نیمی از آنها گفتهاند که در هیأتهای مدیره کسبوکارهاشان، تخصص کافی در مورد هوش مصنوعی وجود دارد.
نتایج این نظرسنجی، کمی نگرانکننده است. بسیاری از سازمانها آمادگی کافی برای استفاده ازهوش مصنوعی ندارند و از تخصص مدیریت ریسک در سطح تصمیمگیرندگان کلیدی بیبهرهاند. اگر به خطرات احتمالی استفاده از فناوری هوش مصنوعی توجه نشود، نقاط کور سازمانها به احتمال زیاد، فرصتهای تحول آن کسبوکار را تحت الشعاع قرار خواهند داد. این بیتوجهی در عین حال باعث میشود که سازمانها سرعت رشد فناوریمحور را از دست بدهند.
این روزها، فرایند پیشرفت و تطبیقپذیری در بستر هوش مصنوعی با نرخ تصاعدی پیش میرود. این رشد تصاعدی، تمرکز بر استفاده از هوش مصنوعی را در سازمانها و کمپانیهای مختلف در سراسر جهان احیا کرده است. طبق آخرین نظرسنجیها، حدود ۷۵درصد از شرکتها و کمپانیها در حال حاضر برای استخدام و منابع انسانی از ابزار و فناوری هوش مصنوعی استفاده میکنند. همزمان اما دانشگاهیان، دانشمندان، سیاستگذاران و حقوقدانها، مدتی است که برای بهکارگیری اخلاقی و قانونی از هوش مصنوعی، به ویژه در محل کار و در مواردی مثل استعدادیابی و آموزش کارکنان تاکید میکنند.
امروز، در مرحله تازهای از بهرهگیری انسان از هوش مصنوعی مولد قرار داریم. مرحلهای که در آن، اصول اصلی و پیششرطهایی مثل حکمرانی، پاسخگویی و شفافیت، بیش از هر زمان دیگری جلوه پیدا کردهاند. همزمان، نگرانیها از فناوریهای توسعهنیافته هوش مصنوعی نیز افزایش یافتهاند. به عنوان مثال، الگوریتمهای کنترلنشده میتوانند منجر به نتایج مغرضانه و تبعیضآمیز، تداوم نابرابری و کاهش تنوع نیروی کار شوند. حریم خصوصی و افشای دادهها نیز نگرانی دیگری است که به راحتی از طریق جمع آوری داده های کارکنان میتواند رقم بخورد.
در مدت اخیر، به طور کلی شاهد سعی دولتها و دستگاههای نظارتی در تصویب و اجرای قوانین مرتبط با هوش مصنوعی بودهایم. بری مثال در ایالات متحده این قوانین نوظهور، در زمینه بهرهگیری از هوش مصنوعی در استخدام و عملیات مرتبط با منابع انسانی متمرکز خواهد بود.
سازمانهایی که هوش مصنوعی مولد را در سیستمهای اداری و اتوماسیون خود پیادهسازی میکنند باید فرض کنند که دادههای وارد شده به ابزارها و همچنین پرسشهای هوش مصنوعی، توسط ارائهدهندگان این فناوری جمعآوری میشوند. در برخی موارد، این ارائه دهندگان حق استفاده و یا افشای این اطلاعات را خواهند داشت. آیا کارفرمایان با تجهیز نیروی کار خود به ابزارهای مولد هوش مصنوعی، دادههای حساس و اسرار تجاری را در معرض خطر قرار میدهند؟ جواب در یک کلام: بله! در مجموع، به نظر میرسد هر توسعه جدید پیش از آنکه پاسخهای تازهای داشته باشد، ابهامات جدیتری را برای سازمانها، قانونگذاران و دادگاهها ایجاد خواهد کرد.
هوش مصنوعی مولد در حال تغییر الگو است و استفادههای ویژه از این فناوردی، خطرات خاص خود را به همراه خواهد داشت. سازمانها برای عقب نماندن از زمان، باید رویکردهای فعلی را به چیزی فراتر از مشتی تلاش بیحساب و کتاب تغییر داده و عملکردهای منقطع و بیبرنامهشان را پیرامون چارچوبهای مدیریتی قدرتمند گردآوری کنند. در حالی که بسیاری از سازمان ها برای مدیریت و پیشگام شدن در ابتکارات هوش مصنوعی به دانشمندان حوزه فناوری و داده تکیه میکنند، همه ذینفعان مرتبط از جمله بخشهای حقوقی، هیأت مدیره، حراست از حریم خصوصی و منابع انسانی، باید در تمام فرآیند تصمیمگیری سازمان یا شرکت، مشارکت داشته باشند.
در نظرسنجی «مک کنزی» تنها ۵۴درصد از پاسخ دهندگان گفتهاند که سازمان یا کسبوکارشان، مسوولان منابع انسانی را در فرآیند تصمیم گیری برای استفاده از ابزارهای هوش مصنوعی درگیر میکند و تنها ۳۶درصد از پاسخ دهندگان گفتند که یک مدیر ارشد متخصص هوش مصنوعی دارند.
در این محیط پرخطر، مدیر ارشد هوش مصنوعی، برای اطمینان از وجود مدیریت مناسب و نظارت مربوطه در سطح مدیران ارشد، نقش مهمی ایفا میکند. مدیر هوش مصنوعی، منابع انسانی شرکت یا سازمان را در آموزش یک تیم هوش مصنوعی کارآمد مشارکت خواهد داد. علاوه بر این، سازمانها باید چارچوب مدیریت داخلیشان را تدوین کرده و از آن پیروی کنند تا ریسکهای سازمانی در همه موارد قابل محاسبه باشد. این اقدام به شرکت اجازه میدهد تا پس از شناسایی مسایل مختلف، فرایند انطباق صحیح با شرایط تازه را به طور موثر طی کند. عدم وجود ساختار منطبق با فناوریهای هوش مصنوعی و فقدان نظارت از سوی ذینفعان کلیدی، میتواند مسوولیتهای قانونی تازهای را، از جمله ادعای تبعیض دراستعدادیابی یا استخدام، برای سازمان خلق کند.
سرعت استفاده از هوش مصنوعی با رشد قابل توجهی افزایش یافته است. این فناوری مزایای بسیاری برای سازمانها و شرکتها ارایه میدهد اما سرعت گسترش و توسعه آن به قدری زیاد است که نظارت استراتژیک و مدیریت ساختاری برای استفاده مسوولانه از آن، روز به روز حیاتی تر میشود.
سازمانها میتوانند با ایجاد ساختارهای مدیریتی و نظارتی قوی، بدون توجه به جایگاهی که در آن قرار دارند، در برابر جزر و مدهای اقیانوس این فناوری مقاومتر شوند. با وجود یک چارچوب امن، سازمان ها می توانند خود را قادر سازند تا فناوری هوش مصنوعی را به کار گرفته و از مزایای آن با اطمینان بیشتری بهره ببرند.
ویدیو:
مرز حریم خصوصی و عرصه عمومی کجاست؟
اینفوگرافیک