loading...
مجله هوش مصنوعی
ai-admin بازدید : 61 یکشنبه 21 آذر 1400 نظرات (2)

اگر بگوییم نوعی تعصب قدیمی درباره رنگ پوست و رنگ گرایی در عصر مدرن اینترنت، در حال شکوفایی است، تعجب نکنید. زمانی که «لیز» هنوز نوجوان بود، همکلاس‌هایش در جورجیا او را بی‌امان مورد آزار و اذیت قرار می‌دادند. او چند سال قبل به همراه خانواده‌اش از هائیتی نقل مکان کرده بود و با دیگر دانش‌آموزان سازگاری نداشت.

آن‌ها او را به خاطر لهجه‌اش دست می‌انداختند و ادعا می‌کردند که «بوی عجیبی» می‌دهد و از غذایی که می‌خورد ایراد می‌گرفتند. اما بیشتر اوقات بابت رنگ پوست تیره‌اش او را آزار می‌دادند. گاهی معلم‌ها او را به خاطر اینکه گریه‌اش قطع نمی‌شد، به خانه می‌فرستادند. او می‌گوید: «به یاد می‌آورم که به خانه می‌رفتم و سیم ظرفشویی را بر می‌داشتم، به حمام می‌رفتم و با کرم روشن‌کننده مادرم، صورتم را می‌سابیدم.»

او این مشکل را تنها با همکلاس‌‌های سفیدپوستش نداشت. دانش‌آموزان سیاه‌پوست هم او را آزار می‌دادند، به خاطر اینکه لیز را از خودشان نمی‌دانستند و فکر می‌کردند شبیه آن‌ها نیست. لیز حرف آن‌ها را به خاطر می‌آورد که دائم می‌پرسیدند: «چرا رنگ پوستت اینقدر تیره است؟!»

درست زمانی‌ که فکر می‌کرد اوضاع نمی‌تواند از این بدتر بشود، حتی تلفن همراهش پر شد از تصاویر زنانی زیبا با رنگ پوست روشن که با دریافت هزاران لایک و کامنت مثبت، محبوب و محبوب‌تر می‌شدند. لیز کم‌کم متوجه شد دنیا به قسمت‌هایی از ظاهرش توجه نشان می‌دهد و قسمت‌های دیگری مثل رنگ پوست یا موهایش را دوست ندارد. هیچکس تمام او را زیبا نمی‌دانست. لیز درحالی‌که تلاش می‌کرد با اهانت‌ها کنار بیاید، قانع شده بود که مشکل از رنگ پوستش است و شبکه‌های اجتماعی و فرهنگ بصری اینترنت هم همین را القا می‌کردند.

حتی وقتی با نزدیک‌ترین کسانش هم وقت می‌گذراند، این احساس منفی نسبت به رنگ پوستش پررنگ‌تر می‌شد. او می‌دید که مادر، خاله‌ها و دوستانش، همگی از کرم‌های روشن‌کننده‌ای استفاده می‌کردند که  بیشترشان حاوی مواد سمی و حتی سرطان‌زا بودند. این مسئله برایش گیج‌کننده بود: جامعه او به سختی در برابر نژادپرستی مبارزه کرده بود، اما برخی از تبعیض‌هایی که او تجربه کرده بود، از سمت خود جامعه سیاه‌پوستان بود و شبکه‌های اجتماعی هم وضع را بدتر می‌کردند.

تبعیض‌هایی که لیز تجربه می‌کرد (رنگ گرایی یا تبعیض بر اساس رنگ پوست) تاریخچه‌ای طولانی داشت که از ایده‌آل‌های زیبایی اروپایی نشئت می‌گرفت. پوست روشن همواره با ویژگی‌های مثبت و دلخواهی مثل معصومیت و ثروت همراه بود و پوست تیره با گناه و فقر. با اینکه این تبعیض با نژادپرستی مرتبط است، اما با آن تفاوت دارد، از این نظر که می‌تواند افراد را فارغ از نژاد آن‌ها تحت‌تأثیر قرار دهد و همچنین می‌تواند اثرات متفاوتی داشته باشد بر روی افرادی که از گروه‌های مشابه هستند.

رنگ گرایی در بسیاری از کشورها به چشم می‌خورد. مثلا در هندوستان و در نظام کاست، افراد با پوست تیره‌تر به طور سنتی در طبقات پایین‌تر قرار می‌گرفتند. در چین، پوست روشن با زیبایی و اشرافیت پیوند خورده است. در ایالات متحده، مردم با نژادهای مختلفی، رنگ گرایی را تجربه‌ کرده‌اند، زیرا این تعصب همان‌طور که گفته شد، اصالتاً ریشه در رنگ پوست دارد و نه نژاد افراد. همچنین در تاریخ برده‌داری آمریکا نیز، به آن دسته از سیاه‌پوستانی که رنگ پوست روشن‌تری داشتند، وظایف خانگی محول می‌شد و آن‌هایی که رنگ تیره‌تری داشتند، بیشتر به کار بر روی زمین وادار می‌شدند.

این تبعیض‌ها برای مدت‌های مدید، مختص اجتماع و رسانه‌ بوده‌اند. اما ظهور تصاویر دیجیتال و فتوشاپ، راه‌های جدیدی برای بروز رنگ گرایی، خلق کرد.

در ژوئن ۱۹۹۴، هر دو مجله نیوزویک و تایم بر روی جلد خود تصویری از اُ.جی. سیمپسون را در جریان محاکمه اتهام به قتلش، منتشر کردند. اما روی جلد مجله تایم، پوست او به وضوح تیره‌تر نشان داده شده بود. تفاوت بین دو عکس، خشم زیادی را برانگیخت. تایم طبق آنچه که تصویرگر مجله ادعا می‌کرد، تصویر را برای مقاصد هنری تیره‌تر کرده بود. اما نحوه ویرایش تصویر، این مضمون را القا می‌کرد که هرچه پوست فرد تیره‌تر باشد، جامعه آمریکایی او را مجرم‌تر می‌پندارد.

این همبستگی میان رنگ پوست و برداشت ذهنی افراد، تبعاتی بسیار سنگینی دارد. پژوهشی که در سال ۲۰۱۱ در دانشگاه ویلانوا انجام شد، نشان داد «بین شدت مجازات ۱۲ هزار زندانی زن و میزان تیرگی پوست‌شان ارتباط مستقیم وجود دارد.»

درحال‌حاضر، به لطف رواج سلفی و فیلترهای چهره، رنگ گرایی دیجیتال گسترش یافته است. با وجود اسنپ‌چت، اینستاگرام، تیک‌تاک و فیس‌بوک که بخشی از زندگی روزمره میلیاردها نفر هستند، مردم بیشتر از گذشته تصاویر یکدیگر را می‌بینند؛ اما سوگیری‌هایی در این سیستم‌ها به صورت بنیادین تعبیه شده است. به عنوان مثال، می‌توان به تراشه‌های تصویربرداری به‌کاررفته در دوربین‌های شخصی اشاره کرد که با توجه به دامنه از پیش تنظیم‌شده‌شان، ثبت دقیق همه رنگ‌های پوست را غیرممکن می‌کنند.

هر روزه بیش از ۲۰۰ میلیون نفر از لنزهای اسنپ‌چت استفاده می‌کنند که هدف برخی از آن‌ها روشن‌تر کردن رنگ پوست‌شان است. اینستاگرام و تیک‌تاک هم فیلترها و قابلیت‌هایی با کارکرد مشابه دارند.

آن تصاویری هم که دوربین‌ها می‌توانند بگیرند، اغلب موردتغییر و ویرایش قرار می‌گیرند. اسنپ‌چت گزارش کرده است که روزانه بیش از ۲۰۰ میلیون‌ نفر از فیلترها و لنزهایش استفاده می‌کنند. برخی از افراد از آن‌ها برای روشن‌تر کردن پوست‌شان استفاده می‌کنند. دیگر فیلترها و افزونه‌های خودکار ایسنتاگرام و تیک‌تاک نیز کارکردی مشابه دارند. فناوری‌های تصویری و فیلترها این کار را تقریباً به صورت نامحسوس انجام می‌دهند. درعین‌حال، الگوریتم‌های شبکه‌های اجتماعی به محبوبیت افراد سفید‌پوست افزوده و به ضرر افراد با رنگ‌ پوست تیره تمام می‌شوند. اخیراً مشخص شد که الگوریتم برش عکسِ توئیتر، چهره‌های روشن‌تر، لاغرتر و جوان‌تر را ترجیح می‌دهد.

تقابل سلفی و اعتمادبه‌نفس

پیش از این درباره نقشی که فناوری‌های دیجیتال در تعیین استانداردهای زیبایی ایفا می‌کنند، صحبت کردیم. پدیده‌ای که منجر به ظهور مفهومی جدید به نام «چهره اینستاگرامی» شد. این اصطلاح به ظاهری اشاره دارد که به سادگی، با انواع و اقسام ابزارهای ویرایشی قابل‌دسترس است. تصاویری که بازتاب چنین چهره‌هایی هستند، یعنی چهره‌هایی که بینی‌های کوچک، چشمان بزرگ و لب‌هایی پر دارند، لایک‌ها و کامنت‌های بیشتری جذب می‌کنند و به همین دلیل الگوریتم‌های توصیه‌گر به آن‌ها اولویت می‌بخشند. علاوه بر این، با پژوهشگرانی مصاحبه کردیم که معتقدند ایده‌آل‌های زیبایی با سرعتی بیش از آنچه پیش‌بینی می‌شد، در حال تغییر هستند و تأثیراتی عمیق روی شکل‌گیری هویت و تصور افراد از خودشان، به‌خصوص در دختران جوان، باقی می‌گذارند.

بیشتر بخوانید

کشف داروهای ضدویروس و استفاده از هوش مصنوعی برای سرعت بخشیدن به آن

رونالد هال، استاد دانشگاه میشیگان و متخصص حوزه سوگیری‌های رنگ گرایی می‌گوید که این پدیده به‌ویژه برای زنانی که پوست تیره دارند، اثرات مخرب‌تری دارد. او ادامه می‌دهد: «با محبوب‌تر شدن چهره‌های اروپایی به عنوان استاندارد زیبایی، بعضی از این دخترهای جوان از آن‌ها تقلید می‌کنند. ولی آن‌هایی که رنگ پوست تیره‌تری دارند، هیچ راهی پیش روی خود نمی‌بینند. این‌ها کسانی هستند که بیش از همه در خطر آسیب‌رساندن به خود هستند.»

این آسیب شامل عمل سفیدسازی پوست یا دیگر درمان‌های مخاطره‌آمیز است. صنعت روشن‌سازی پوست طی سال‌های اخیر به سرعت رشد کرده و ارزش جهانی آن درحال‌حاضر به بیش از سالانه ۸ میلیارد دلار رسیده است. اما فراتر از آسیب‌های جسمی، پژوهشگران و فعالان اجتماعی، شروع به ثبت مشکلات عاطفی و روانی ناشی از رنگ گرایی آنلاین کرده‌اند.

امی نیو به عنوان بخشی از رساله دکتری خود در رشته روان‌شناسی دانشگاه ویسکانسین، بر روی رفتار ویرایش سلفی، مطالعه کرد. وی در پژوهشی که سال ۲۰۱۹ انجام داد، اثر فیلترهای زیبایی را بر روی خودانگاره زنان آمریکایی و چینی بررسی کرد. نیو از ۳۲۵ نفر از زنان در رده سنی کالج عکس‌ گرفت و بدون اینکه به آن‌ها بگوید، روی بعضی از عکس‌ها فیلترهایی را اجرا کرد. سپس این زنان را تحت‌نظر گرفت، تا احساسات و اعتمادبه‌نفس آن‌ها را هنگام دیدن عکس‌های اصلی یا ویرایش‌شده، اندازه بگیرد. نتایج این آزمایش‌ها که هنوز به طور رسمی منتشر نشده‌اند، نشان دادند که زنان چینی‌ای که تصاویر ویرایش‌شده را می‌دیدند، احساس بهتری نسبت به خودشان داشتند. درحالی‌که زنان آمریکایی (که ۸۷ درصد آنان سفیدپوست بودند) در هنگام دیدن تصاویر اصلی و ویرایش‌شده، احساس مشابهی داشتند.

به عقیده‌ نیو، این نتایج نشان می‌دهند تفاوتی عمیق بین فرهنگ‌ها در زمینه «استانداردهای زیبایی و میزان حساسیت افراد نسبت به این فیلترها» وجود دارد. او اضافه می‌کند: «شرکت‌های فناوری متوجه این نکته شده‌اند و به همین دلیل، در تلاش‌اند فیلترهایی تولید کنند که با نیازهای گروه‌های مختلف متناسب باشد.»

این موضوع، تظاهرهای بسیار آشکاری دارد. نیو به عنوان زنی چینی که در آمریکا زندگی می‌کند، هم از تیک‌تاک و هم دویین، نسخه چینی تیک‌تاک، استفاده می‌کند. هر دوی این برنامه‌ها تولید یک شرکت هستند و به‌رغم ویژگی‌های مشابه فراوان، محتوایی متفاوت دارند.  به عنوان مثال، هر دو نرم‌افزار قابلیتی به نام «حالت زیبایی» دارند، اما ویژگی‌هایی که در این قابلیت ارائه می‌دهند، با هم تفاوت دارند: افکت‌هایی که به کاربران چینی ارائه می‌شود، به شکلی افراطی پوست را روشن و صاف نشان می‌دهند.

او می‌گوید: «این تفاوت‌ها نه‌تنها بازتاب استانداردهای فرهنگیِ متفاوت زیبایی هستند، بلکه آن‌ها را تثبیت می‌کنند. برای نمونه، سفیدپوستان آمریکایی عموماً فیلترهایی را ترجیح می‌دهند که پوست‌شان را برنزه‌تر، دندان‌ها را سفیدتر و مژه‌ها را بلندتر نشان می‌دهند، درحالی‌که زنان چینی فیلترهایی را ترجیح می‌دهند که پوست‌شان را روشن‌تر می‌کند.»

نیو نگران است که ازدیاد بی‌امان تصاویر ویرایش‌شده، از تنوع استانداردهای زیبایی، به‌خصوص برای زنان چینی می‌کاهد. او می‌گوید: «استانداردهای زیبایی در چین همگن‌تر هستند. فیلترهای نرم‌افزارها بسیاری از تفاوت‌های موجود بین چهره‌ افراد را حذف می‌کنند و بدین ترتیب، یک چهره‌ همگانی را ترویج می‌کنند.»

این واقعاً بد است

امیره آداوه نیز در مطالعاتش الگویی مشابه را در طرز استفاده دختران رنگین‌پوست از فیلترهای موجود در شبکه‌های اجتماعی ملاحظه کرده است. آداوه مؤسس و مدیرعامل بیوتی‌ول، سازمانی غیرانتفاعی در مینه‌سوتا است که هدفش مبارزه با رنگ گرایی و عمل‌های روشن‌سازی پوست است. این سازمان برنامه‌هایی آموزشی برای دختران جوان رنگین‌پوست اجرا می‌کند، تا به آن‌ها درباره امنیت در اینترنت، رفتارهای دیجیتالی سالم و خطرات فیزیکی روشن‌سازی پوست، اطلاع‌رسانی کند.

امیره آداوه می‌گوید: «اغلب باید در کارگاه‌هایش به دختران جوان یادآوری کند که پوست‌شان با فیلترهای شبکه‌های اجتماعی روشن‌تر می‌شود، چون آن‌ها تصور می‌کنند که این امر طبیعی است، مثلاً می‌گویند، امیره اسم این روشن‌سازی پوست نیست. فقط یک فیلتره. بسیاری از این دختران جوان از این فیلترها استفاده می‌کنند و فکر می‌کنند که وای خدای من! چقدر خوشگل هستم.» آن‌ها فکر می‌کنند که این امر طبیعی است… اما در واقع به این مفهوم دامن می‌زند که به اندازه کافی زیبا نیستند.»

تنها با چند کلیک می‌توان ظاهر خود را به شکل ایده‌آل‌های زیبایی درآورد. این کار آنقدر آسان است که بسیاری از زنان جوان به آن روی آورده‌اند و در نهایت هویتی با پوستی روشن‌تر در فضای مجازی برای خود می‌سازند. بدین گونه در دنیای دیجیتال راحت‌تر پذیرفته می‌شوند. اما این کار باعث می‌شود با ظاهر و رنگ پوست حقیقی‌شان سخت‌تر کنار بیایند.

آداوه می‌گوید که هنگام توضیح در خصوص فیلترها و نقش آن‌ها در چرخه تبعیض‌های رنگ گرایی، با مقاومت مخاطبانش روبه‌رو می‌شود. فیلترها در نوع نگاه دختران به خود، تبدیل به ضروریات شده‌اند. شیوع این فیلترها اتفاق خیلی بدی است. چون به این باور دامن می‌زنند که «تو به اندازه‌ کافی زیبا نیستی.» چنین باوری، فارغ از رنگ پوست، برای همه‌ افراد، معضلی خطرناک به شمار می‌رود.

هال، خانم مجرد دورگه‌ای با بیست و چند سال سن است که دغدغه زیادی درباره هویت نژادی خود دارد. او می‌گوید: «بیشتر مردم از اصطلاح «مبهم» برای توصیف ظاهرم استفاده می‌کنند. بیشتر مشخصات ظاهری من شبیه به نژاد سفیدپوست‌هاست، مثلاً پوستم نسبت به دخترهای دورگه دیگر، روشن‌تر است و موهایم فر کمتری دارد.» همچنین او در گذشته از برنامه‌های همسریابی آنلاین استفاده می‌کرد. اما بعد از صحبت با دوستانش که رنگ پوست تیره‌تری دارند، دریافت که تجربه او در این برنامه‌ها بسیار با تجربه آن‌ها متفاوت بوده است.

بیشتر بخوانید

گزارش معاونت علمی و فناوری ریاست‌جمهوری از اقدامات صورت گرفته برای توسعه و تعمیق هوش مصنوعی

او می‌گوید: «من و دوستانم تعداد کسانی را که این نرم‌افزار برایمان پیدا می‌کرد، با هم مقایسه کردیم. اینجا بود که فهمیدم یک جای کار مشکل دارد. دوستانم که کاملاً سیاه‌پوست هستند، نسبت به من که دورگه هستم، تعداد درخواست‌های کمتری دریافت می‌کنند.»

هم‌اکنون مشخص شده است که الگوریتم‌های امتیازدهی زیبایی که میزان جذابیت تصاویر را رده‌بندی می‌کنند، امتیاز بیشتری به زنان سفیدپوست می‌دهند. به عنوان مثال، الگوریتم رده‌بندی بزرگ‌ترین شرکت‌ تشخیص چهره جهان، Face++،  از نظر نژادی دارای سوگیری است. این الگوریتم به طور خاص در پلتفرم‌های دیجیتال و سایت‌های همسریابی آنلاین به کار می‌رود.

طبق ‌گفته‌ هال، تجربه او از این برنامه‌ها بازتابی از مشکلاتی بزرگ‌تر است. این امر عمیقاً ریشه در نژادپرستی، رنگ گرایی و هر تبعیض دیگری دارد که در جامعه ما اتفاق می‌افتد. این تجربه چنان برای هال ناامیدکننده بود که تمام برنامه‌های همسریابی‌اش را پاک کرد. ژورنال تحقیقاتی MIT Technology Review با بسیاری از سایت‌های همسریابی تماس گرفت، تا بپرسد آیا از الگوریتم‌های امتیازدهی زیبایی برای یافتن جفت مناسب برای افراد استفاده می‌کنند یا خیر. اما هیچ‌کدام از این سایت‌ها نه این نکته را تکذیب کردند و نه بر آن مهر تأیید زدند.

آنچه می‌دانیم این است که حتی اگر این برنامه‌ها از سیستم‌هایی مانند Face++ استفاده نکنند، قطعاً الگوریتم‌های توصیه‌گری به کار می‌برند، تا در طول زمان، ترجیحات کاربران را بیاموزند و این خود فرصت دیگری برای رخنه سوگیری و رنگ گرایی به این نرم‌افزارها به شمار می‌رود.

این واقعیت که پیشنهادات الگوریتم‌ها بر اساس ترجیحات کاربران ارائه می‌شوند، بدین معنی است که سوگیری‌های موجود در جامعه که در اینجا مسائل مربوط به گوناگونی در رسانه‌ها و صنعت مد هستند، در آن‌ها نیز رخنه می‌کنند. آن سوگیری‌ها متقابلاً بر اینفلوئنسرهای دنیای مجازی اثر می‌گذارند، به طوری که اکثر تصاویر محبوب به طور پیش‌فرض، متعلق به افرادی با پوست‌های روشن‌تر هستند. بدین ترتیب، الگوریتم‌هایی که برای تفسیر رفتار مخاطبان ساخته شده‌اند نیز درون این حباب غیرواقعی گیر می‌افتند و می‌آموزند که رنگ پوست تیره‌تر محبوب نیست. وضعیت جایی بدتر می‌شود که این الگوریتم‌های توصیه‌گر، قابلیتی به نام «اثر لنگری» دارند. بدین معنی که خروجی‌شان سوگیری‌های ناخودآگاه کاربران را تقویت می‌کند و حتی می‌تواند ترجیحات و سلیقه آن‌ها را به مرور زمان تغییر دهد.

از سوی دیگر، پلتفرم‌هایی شامل تیک‌تاک متهم شده‌اند که به صورت عمدی محتوای کاربران سیاه‌پوست را، به خصوص کسانی که راجع به جنبش «زندگی سیاه‌پوستان مهم است» یا به‌طورکلی، نژادپرستی بحث می‌کنند، شادوبن (ممنوعیت سایه) می‌کند. این امر دسترسی این کاربران را کم می‌کند و این چرخه معیوب، پیوسته ادامه می‌یابد. سخنگوی تیک‌تاک طی بیانیه‌ای در پاسخ به این اتهامات گفته است: «ما به هیچ عنوان، محتوای کاربران یا حساب کاربری آن‌ها را بر اساس سوگیری‌های نژادی تعدیل نمی‌کنیم.»

رونالد هال می‌گوید که در خصوص فشارهایی که این شبکه‌ها به کاربران، به خصوص بر زنان رنگین‌پوست، وارد می‌کنند «به‌شدت نگران» است. زنان رنگین‌پوست مدام با این پیام بمباران می‌شوند که «برای جذاب بودن باید سفید باشی.»

با‌این‌حال، آداوه فکر می‌کند که تنها راه‌حل، ممنوعیت کامل فیلترهایی است که رنگ پوست را روشن می‌کنند. او می‌گوید که به اسنپ‌چت ایمیل فرستاده و این درخواست را به طور رسمی انتقال داده است. وی ادامه می‌دهد: «شبکه‌های اجتماعی به ارائه فیلترها ادامه می‌دهند، زیرا تقاضا بسیار زیاد است. اما به نظر من، آن‌ها در حال ترویج رنگ گرایی هستند، چه متوجه این امر باشند یا نباشند. چه عمدی باشد یا نباشد.

یکی از سخنگویان اسنپ‌چت به ژورنال MIT Technology Review گفت: «هدف ما تولید محصولاتی است که دربرگیرنده‌ تمام کاربران اسنپ‌چت باشد و برای رسیدن به این هدف، تعدادی فرایند و نوع‌‌آوری را به اجرا گذاشته‌ایم. دستورالعمل‌های ما برای تمام کاربران اسنپ‌چت و همین‌طور لنزها، به نحوی تدوین شده‌اند که از تبعیض و ترویج تصورات قالبی جلوگیری می‌کند. درحال‌حاضر، فرایند بررسی گسترد‌ه لنزها را در دست داریم. در این فرایند، قابلیت‌های این برنامه را بر روی طیف گوناگونی از رنگ پوست‌ها امتحان می‌کنیم.»

اسنپ‌چت اعلام کرده است که به کمک کارشناسان، در ابتدای سال جاری طرحی را برای ساختن «دوربین همه‌شمول» آغاز کرده است، دوربینی که در ثبت طیف وسیع‌تری از رنگ پوست، بهتر عمل می‌کند.

لنزی کاملاً متفاوت

لیز که اکنون در مینه‌سوتا زندگی می‌کند، مدت‌های مدیدی با تبعات رنگ گرایی دست‌به‌گریبان بود. او در جلسات روان‌درمانی شرکت کرد، بی‌شمار ویدئوی آموزشی درباره ویرایش عکس در یوتیوب تماشا کرد و حتی دوربینی ۶۰۰ دلاری خرید، به این امید که این دوربین او را در عکس‌ها روشن‌تر نشان دهد، ولی در نهایت متوجه شد که این امر چقدر آسیب‌زا بوده است.

لیز می‌گوید: «حالا با دیدی کاملاً متفاوت صفحه افراد را در شبکه‌های اجتماعی می‌بینم.»

او حالا یک مادر است. وقتی با او از طریق زوم صحبت می‌کردم، کودکش با غان‌وغون و تکان‌تکان به استقبالم آمد. من خوشحال شدم. اما لیز درحالی‌که مدام عذرخواهی می‌کرد، لنز دوربین را تنظیم کرد.

لیز امیدوار است در فضای مجازی تصاویر طبیعی‌ بیشتری از زنان زیبایی ببیند که به او شباهت بیشتری دارند. او دیگر نمی‌خواهد رنگ پوستش را در عکس‌ها ویرایش کند و سخت در تلاش است، تا به افکار منفی‌‌اش پایان دهد. لیز در این باره بیشتر توضیح می‌دهد: «اگر ببینم کسی به زن زیبای تیره‌پوستی توهین کرده، از کوره در می‌روم. برایم مهم نیست فضای مجازی باشد یا واقعی، حتماً تذکر می‌دهم. دیگر نمی‌توانم ساکت بمانم! اما سال‌ها طول کشیده تا به اینجا برسم. می‌خواهم نسبت به آنچه که به پسرم می‌آموزم، آگاهانه‌تر عمل کنم.»

پی‌نوشت: در این نوشتار تلاش کردیم تا توضیح دهیم رنگ گرایی یا colorism، افراد متعلق به تمام نژادها را تحت‌تأثیر قرار می‌دهد.

جدیدترین اخبار هوش مصنوعی ایران و جهان را با هوشیو دنبال کنید.

منبع: هوشیو

ai-admin بازدید : 63 شنبه 20 آذر 1400 نظرات (0)

مطالعات جدید نشان داده‌اند که با آموزش شبکه‌های عصبی پیچشی بر روی کامپیوترهای کوآنتومی، می‌توان مشکل «فلات‌های بی‌ثمر» را که در مسائل بهینه‌سازی رخ می‌دهد، حل کرد.

شبکه‌های عصبی پیچشی که بر روی کامپیوترهای کوآنتومی اجرا می‌شوند، ظرفیت خارق‌العاده‌ای برای تحلیل داده‌های کوآنتومی دارند و از این نظر نسبت به کامپیوترهای کلاسیک برتری دارند. با‌این‌حال، مشکلی اساسی که با نام «فلات‌های بی‌ثمر» شناخته می‌شود، کاربرد این شبکه‌های عصبی بر روی دیتاست‌های بزرگ را با محدودیت روبه‌رو کرده است. در این نوشتار، نتایج پژوهشی جدید را مرور خواهیم کرد که موفق به کشف راه‌حل این مسئله شده است و بدین ترتیب، اجرای این شبکه‌ها در مقیاس بزرگ را امکان‌پذیر می‌کند. این مقاله، در ژورنال Physical Review X منتشر شده است.

مارکو کرتزو، از محققان آزمایشگاه ملی لس‌آلاموس و یکی از نویسندگان مقاله‌ «غیاب فلات‌های بی‌ثمر در شبکه‌های عصبی پیچشی کوآنتومی»، توضیح می‌دهد: «شیوه‌ ساخت شبکه‌ عصبی می‌تواند منجر به بروز مشکل فلات‌های بی‌ثمر بشود؛ اما همیشه این‌طور نیست. ما در این پژوهش، نشان داده‌ایم که در نوع خاصی از شبکه‌های عصبی کو‌‌‌‌‌‌‌‌‌‌آنتومی، فلات‌های بی‌ثمر وجود ندارند. مطالعات ما آموزش این معماری‌ها را توضیح می‌دهد، به نحوی که شبکه بتواند پارامترهای خودش را به صورت عمومی آموزش دهد.» کرتزو فیزیک‌دانی است که در حوزه‌ محاسبات کو‌‌‌‌‌‌‌‌‌‌آنتومی، یادگیری ماشین کو‌‌‌‌‌‌‌‌‌‌آنتومی و اطلاعات کو‌‌‌‌‌‌‌‌‌آنتومی تخصص دارد.

ساختار شبکه‌های عصبی پیچشی کوآنتومی از قشر بینایی مغز انسان الهام گرفته است. به همین دلیل، این شبکه‌ها یک مجموعه لایه‌ پیچشی یا فیلتر دارند که بین‌شان لایه‌های تجمیعی قرار گرفته‌اند. این لایه‌ها در عین حفظ ویژگی‌های مهم دیتاست، ابعاد آن را نیز کاهش می‌دهند.

این شبکه‌های عصبی را می‌توان برای حل طیفی از مسائل گوناگون، همچون تشخیص تصویر یا کشف مواد، به کار برد. غلبه بر مشکل فلات‌های بی‌ثمر، کلید بهره‌مندی از قابلیت‌های کامپیوترهای کوآنتومی در حوزه‌ هوش مصنوعی و اثبات برتری آن‌ها نسبت به کامپیوترهای کلاسیک است.

بیشتر بخوانید

هر کس بگوید هوش مصنوعی توانایی تشخیص دروغ را دارد فریبکار است!

متخصصان یادگیری ماشین کوآنتومی تاکنون، کاهش اثرات فلات‌های بی‌ثمر را بررسی کرده‌اند؛ اما اساس نظری لازم برای حذف کلی یا جلوگیری از آن را در دست نداشته‌اند. محققان لس‌آلاموس نشان دادند که برخی از این شبکه‌های عصبی کوآنتومی می‌توانند در برابر فلات‌های بی‌ثمر مقاوم باشند.

پاتریک کولز، فیزیک‌دان کو‌‌‌‌‌‌‌‌‌‌آنتومی آزمایشگاه لس‌آلاموس و یکی دیگر از نویسندگان این مقاله، می‌گوید: «اکنون محققان می‌توانند داده‌های کامپیوترهای کوآنتومی را غربال کنند و با تکیه بر اطلاعاتی که درباره سیستم‌های کوآنتومی به دست می‌آورند، خواص مواد را مطالعه کنند یا مواد جدید کشف کنند. البته این تنها نمونه‌ای از کاربردهای فراوان این کشفیات است.»

به عقیده‌ کولز، الگوریتم‌های هوش مصنوعی، کاربردهای بیشتری هم پیدا خواهند کرد؛ زیرا همه‌ برنامه‌های یادگیری ماشین، تشنه‌ داده هستند و محققان نیز می‌توانند با تکیه بر کامپیوترهای کو‌‌‌‌‌آنتومی، داده‌های بیشتر و بیشتری تولید کنند.

اجتناب از مشکل گرادیان کاهشی

کرتزو معتقد است: «مشکل فلات‌های بی‌ثمر، همه‌ مزایای بالقوه‌ فناوری کوآنتومی، از جمله سرعت بالا را به خطر می‌اندازد.»

ریشه‌ مسئله «گرادیان کاهشی» را می‌توان در نمای بهینه‌سازی به وضوح مشاهده کرد. این نما از پستی و بلندی‌ها (قله، فلات و دره) تشکیل شده است. پارامترهای مدل را به نحوی باید آموزش داد که سراسر این نمای جغرافیایی را به دنبال راهکار ایده‌آل جست‌وجو کنند. این راهکار معمولاً در انتهای پایین‌ترین دره قرار دارد. وقتی نما هموار و مسطح باشد، آموزش پارامترها با مشکل روبه‌رو می‌شود، چون جهت درست را به سختی می‌توان تشخیص داد.

این مشکل با افزایش تعداد ویژگی‌های داده‌ها تشدید می‌شود؛ چون در این صورت، نما مسطح‌تر می‌شود و با بروز مشکل فلات‌های بی‌ثمر، شبکه‌ عصبی کوآنتومی، دیگر نمی‌تواند رشد کند.

بیشتر بخوانید

گزارش معاونت علمی و فناوری ریاست‌جمهوری از اقدامات صورت گرفته برای توسعه و تعمیق هوش مصنوعی

محققان لس‌آلاموس، رویکرد گرافیکی جدیدی توسعه داده‌اند که امکان تحلیل مقیاس‌بندی در شبکه‌های عصبی کوآنتومی را فراهم می‌آورد و آموزش‌پذیری آن را تضمین می‌کند.

بیش از ۴۰ سال است که فیزیک‌دان‌ها بر نقش کامپیوترهای کوآنتومی در درک و شبیه‌سازی سیستم‌های کوآنتومی تأکید می‌کنند. اکنون پژوهشگران موفق به ساخت شبکه‌ عصبی پیچشی کوآنتومی شده‌اند که در برابر مسئله‌ مذکور مقاوم است و برای تحلیل داده‌های حاصل از شبیه‌سازی‌های کوآنتومی نیز مفید است.

کولز یادآوری می‌کند: «یادگیری ماشین کوآنتومی، حوزه‌ای جوان و نوپا به شمار می‌رود. وقتی لیزر برای اولین بار کشف شد، باوری رایج ایجاد شده بود مبنی بر اینکه لیزر راهکاری است که به دنبال مشکل می‌گردد؛ اما حالا لیزرها و کاربردشان را همه‌جا می‌بینیم. اینجا هم همین‌طور است؛ برخی به قابل دسترس بودن داده‌های کوآنتومی شک دارند و به‌تبع، معتقدند یادگیری ماشین کوآنتومی رونق چندانی نخواهد گرفت.»

برای نمونه، پژوهشی قصد دارد با تمرکز بر روی مواد سرامیکی، به عنوان ابررساناهایی با دمای بالا، نقش آن‌ها در ارتقای حمل‌ونقل یکپارچه (مثل قطارهای مغناطیسی هوایی) را بررسی کند؛ اما تجزیه و تحلیل داده‌های موجود درباره فازهای متعدد ماده (که تحت‌تأثیر دما، فشار و ناخالصی‌های موجود تغییر می‌کنند) و دسته‌بندی این آن‌ها مسئله‌ای سنگین به شمار می‌رود که فراتر از قابلیت‌های کامپیوترهای کلاسیک هستند.

کامپیوترهای کوآنتومی، با تکیه بر شبکه‌ عصبی کوآنتومی مقیاس‌پذیر، قادر خواهند بود، دیتاست‌های عظیم را غربال کنند، تا حالات گوناگون مواد را تشخیص دهند و همبستگی بین این حالات را مشخص سازند و در نهایت، بهترین حالت ممکن برای ابررسانایی دمای بالا را مشخص کنند.

جدیدترین اخبار هوش مصنوعی ایران و جهان را با هوشیو دنبال کنید

منبع: هوشیو

ai-admin بازدید : 67 چهارشنبه 17 آذر 1400 نظرات (0)

در این مطلب قصد داریم بهترین فیلم های هوش مصنوعی ۲۰۲۱ را به شما معرفی کنیم. فیلم‌هایی که با بهره‌گیری از بهترین‌های سینمای دنیا سعی در علاقه‌مند کردن افراد به فناوری هوش مصنوعی، آشنا کردن آن‌ها با کاربردهای این فناوری و به تصویر کشیدن دنیای آینده مبتنی بر هوش مصنوعی دارند. البته بسیاری از آن‌ها فیلم های مربوط به هوش مصنوعی نیستند و نمی‌توان گفت که فیلم های سینمایی درباره هوش مصنوعی هستند. اما در ساخت آن‌ها از این فناوری استفاده شده است. در سال‌های اخیر، هوش مصنوعی در حوزه فناوری عملکردی چشمگیر داشته است. سؤال اما اینجاست که در پرتو این اتفاق، صنعت فیلم‌سازی چه حرفی برای گفتن دارد؟

در چند سال گذشته، هوش مصنوعی در زمینه کسبوکار IT بسیار به چشم آمد. البته، پیامدهای احتمالی هوش مصنوعی اغلب با آنچه که در فیلم های مربوط به هوش مصنوعی نمایش داده می‌شود، متفاوت است. بسیاری از افراد به دنبال تماشای فیلم هوش مصنوعی دوبله هستند و این در حالی است که از نظر موجودیت، یافتن فیلم هوش مصنوعی زیرنویس فارسی ساده‌تر است. هرچند تماشای فیلم هوش مصنوعی دوبله به شما کمک می‌کند تا بیشتر تمرکزتان را روی تماشای صحنه‌های فیلم و شرایطی که استفاده از فناوری هوش مصنوعی برای فیلم ایجاد کرده، بگذارید. با این حال فیلم های هوش مصنوعی را می‌توان از جنبه‌های مختلف بررسی کرد و هم روی کاربرد این فناوری در صنعت فیلم‌سازی تمرکز کرد و هم روی محتوایی که فیلم های با موضوع هوش مصنوعی ارائه داده‌اند. در ادامه فیلم‌های با موضوع هوش مصنوعی که برترین‌های سال ۲۰۲۱ هستند را معرفی می‌کنیم.

معرفی بهترین فیلم های هوش مصنوعی

رستاخیزهای ماتریکس – The Matrix Resurrections

سری فیلم‌های ماتریکس بدون شک از بهترین فیلم های هوش مصنوعی در دنیا هستند. لانا واچووسکی ، تهیه‌کننده، کارگردان و یکی از نویسندگان فیلم اکشن، علمی- تخیلی و مبتنی بر هوش مصنوعی «رستاخیزهای ماتریکس»  است. این فیلم، چهارمین فیلم از سری فیلم‌های ماتریکس پس از بارگذاری مجدد ماتریکس  و انقلاب‌های ماتریکس  در سال ۲۰۰۳ است. اعتقاد بر این است که فیلم‌نامه این مجموعه، جنگی فاجعه‌بار میان انسان و ماشین‌های مجهز به هوش مصنوعی را به تصویر می‌کشد که هنوز افشا نشده است.

به همین دلیل، فیلم از برنامه‌های هوش مصنوعی دارای احساس، معروف به معمار  و اوراکل  برای ساختن خود ماتریکس استفاده کرد. به علاوه، برنامه‌های مختلفی، بخش‌های گوناگونی از جهان را شبیه‌سازی می‌کنند و برنامه‌های عامل ، مردم جهان را کنترل می‌کنند. این فیلم هوش مصنوعی هم از نظر کاربرد این فناوری در ساخت آن دیدنی است و هم از نظر محتوا و دنیایی که هوش مصنوعی در آن تاثیرگذار بوده است.

خارج از محدوده – Outside the Wire

داستان فیلم «خارج از محدوده » که در سال ۲۰۳۶ اتفاق می‌افتد، درباره ربات‌های جنگجو است. اما مسئله آسیب‌های جانبی جنگ را نیز مدنظر دارد. این فیلم به کارگردانی مایکل هوفسترم در ژانر اکشن علمی- تخیلی و در سال ۲۰۲۱ تولید شده است. آنتونی مکی (که تهیه‌کننده فیلم هم هست) نقش افسر اندرویدی‌ای را بازی می‌کند که با یک خلبان پهپاد (دامسون ادریس) برای جلوگیری از یک فاجعه جهانی، همکاری می‌کند. خلبان پهپاد به منطقه جنگی اعزام می‌شود، تا با افسر فوق سری اندرویدی در یک مأموریت، فوراً از حمله هسته‌ای جلوگیری کنند. با این حال، زمانی که ستوان هارپ (دامسون ادریس)، خلبان بدنام پهپاد، به علت تخطی از قوانین به یک منطقه خطرناک نظامی اعزام می‌شود، با کاپیتان لئو (آنتونی مکی)، افسر اندرویدی که وظیفه پیدا کردن وسیله‌ای بسیار مخرب را پیش از اینکه به دست شورشیان بیفتد بر عهده دارد، همکاری می‌کند.

فینچ – Finch

اگر مشتاق تماشای یکی از بهترین فیلم های هوش مصنوعی هستید تماشای این فیلم را از دست ندهید. در میان فیلم های سینمایی درباره هوش مصنوعی می‌توان این فیلم را جزو بهترین‌ها دانست. «فینچ» فیلم آمریکایی درام، علمی- تخیلی و پساآخرالزمانی، به کارگردانی میگل ساپوچنیک و محصول سال ۲۰۲۱ است. یکی از شخصیت‌های اصلی این فیلم به نام «فینچ»  این توانایی را دارد که از طریق تعامل‌ها و تجربیات خود با رباتش به یک کودک که به طور مصنوعی رشد کرده است، تبدیل شود.

فینچ واینبرگ، مهندس رباتیکی که یکی از معدود بازمانده‌ها است، به تنهایی با سگش به نام گودیِر زندگی می‌کند. در جهانی پساآخرالزمانی، رباتی که او برای دفاع از سگش ساخته است، درباره زندگی، عشق، دوستی و معنای انسانیت می‌آموزد. فینچ (تام هنکس) مردی است که برای ساختن خانه‌ای جدید برای خانواده عجیب و غریبش یعنی سگ محبوبش و ربات تازه‌ساخته‌شده، در سیاره‌ای خطرناک و تخریب‌شده سفر می‌کند.

مرد آزاد –  Free Guy

فیلم «مرد آزاد » به کارگردانی شان لوی، کمدی اکشنی است که داستان آن در قلمرو یک بازی ویدئویی به نام شهر آزاد (برنامه‌ریزی‌شده از سوی چند توسعه‌دهنده) روی می‌دهد. از سوی دیگر، گای ، شخصیت غیربازیکنی است که در شهر آزاد، زندانی شده است. مانند فیلم نمایش ترومن جیم کری، گای متوجه می‌شود که جهان او، یک بازی ویدئویی است و تلاش می‌کند که مانع از نابودی آن از طریق توسعه‌دهندگان شود. این فیلم، عملکرد درونی یک بازی کامپیوتری را که شخصیت‌های متعدد مبتنی بر هوش مصنوعی دارد، به تصویر می‌کشد. از مرد آزاد می‌توان به عنوان یکی از بهترین فیلم های هوش مصنوعی امسال یاد کرد.

هرج‌ومرج فضایی: میراث جدید – Space Jam: A New Legacy

«هرج‌ومرج فضایی: میراث جدید»، یک فیلم اکشن کمدی انیمیشن است که به وسیله گروه انیمیشن وارنر و برادران وارنر تهیه و توزیع شده است. هوش مصنوعی بدذاتی، پسر لبرون جیمز را می‌رباید و او مجبور می‌شود با باگز بانی متحد شود، تا در یک مسابقه بسکتبال برنده شود. جیمز از لونی تون برای برنده شدن در مسابقه بسکتبال در برابر آواتارهایی که هوش مصنوعی بدذاتی به نام Al-G Rhythm رهبری می‌کند، یاری می‌گیرد و دام ، پسر ربوده‌شده خود را که Al-G Rhythm به دنیای برادران وارنر کشانده است، نجات می‌دهد.

ران اشتباه رفته – Ron’s Gone Wrong

در میان بهترین فیلم های هوش مصنوعی این فیلم شرایطی خاص دارد و به صورت انیمیشن است.«ران اشتباه رفته»، یک فیلم انیمیشن با موضوع مزایای ربات‌ها در زندگی روزمره است. نویسندگان، جامعه‌ای را به تصویر کشیده‌اند که در آن، بهترین دوستان کودکان، ربات‌های محرک، سخنگو و دیجیتالی هستند. ران یازده ساله متوجه می‌شود که دوست رباتش، درست کار نمی‌کند. در نهایت، کودک به رباتش یاد می‌دهد که چگونه مسیریابی کند. ران اشتباه رفته که یکی از فیلم های درباره هوش مصنوعی است، نویدبخش چندین تعامل دلگرم‌کننده میان انسان و ربات است.

آشوب مدام – Chaos Walking

در لیست بهترین فیلم های هوش مصنوعی به معرفی آخرین مورد رسیدیم. «آشوب مدام»، فیلم آمریکاییِ مبتنی بر هوش مصنوعی دیگری است که بر اساس مجموعه علمی- تخیلی The Knife of Never Letting Go ساخته شده است. «آشوب مدام» دختری مرموز و پسری را به تصویر می‌کشد که در سرزمینی مجبور به فرود اضطراری می‌شوند که در آن، همه مردان تحت‌تأثیر «صدا» قرار دارند. نیرویی که از هوش مصنوعی برای آشکار کردن افکار آن‌ها استفاده می‌کند. در نهایت، دختر متوجه می‌شود که زندگی‌اش در خطر است و پسر باید نیروهای درونی خود را برای کشف اسرار وحشتناک سیاره، هدایت کند.

کلام آخر…

در این مطلب ۷ مورد از بهترین فیلم های هوش مصنوعی سال ۲۰۲۱ را به شما معرفی کردیم. فیلم‌هایی که لزوما جزو فیلم های مربوط به هوش مصنوعی یا فیلم های با موضوع هوش مصنوعی نیستند، بلکه محتواهای متفاوت دارند. اما از این بابت می‌توان آن‌ها را در دسته فیلم های درباره هوش مصنوعی قرار داد که برخی محتوایی مرتبط با این فناوری ارائه می‌دهند و برخی دیگر در پروسه تولید از این فناوری هوش مصنوعی بهره گرفته‌اند. به هر شکل تماشای این فیلم های سینمایی درباره هوش مصنوعی چه به صورت زیرنویس و چه دوبله، به همه علاقه‌مندان این فناوری و کسانی که دوست دارند بدانند دنیای آینده مبتنی بر هوش مصنوعی به چه صورت خواهد بود، توصیه می‌شود.

اگر شما هم فیلم هوش مصنوعی جذابی می‌شناسید در قسمت کامنت‌ها نامش را برای ما بنویسید.

جدیدترین اخبار هوش مصنوعی ایران و جهان را با هوشیو دنبال کنید

منبع: هوشیو

ai-admin بازدید : 56 دوشنبه 15 آذر 1400 نظرات (0)

اگر به علوم داده علاقه دارید اما حجم انبوه اطلاعات درباره دوره‌های آموزشی علوم داده شما را خسته کرده، با هوشیو همراه باشید تا ۷ مهارت کاربردی  که برای یک متخصص علوم داده مورد نیاز است را مرور کنیم. این مهارت‌ها بعد از ساعت‌ها بحث و بررسی با آدم‌های سرشناسی در حوزه علوم داده مثل سرپرست تحلیل داده‌ها در گوگل، سرپرست ارشد مهندسی انویدیا و معاون مهندسی و علوم داده ولث‌سیمپل جمع‌آوری شده است.
از آنجایی که تفاوت معنی‌داری بین شرح آگهی‌های شغلی و آنچه واقعا یک دانشمند داده انجام می‌دهد وجود دارد، بهتر است مهارت‌های ضروری علوم داده را از زبان متخصصان این حوزه بررسی کنیم.

احتمالا تعجب خواهید کرد که چرا هیچ کدام از ۷ مهارت پیشنهادی ربطی به یادگیری ماشین یا یادگیری عمیق ندارند. این نکته اتفاقا عمدی است. در حال حاضر تقاضای زیادی برای مهارت‌هایی وجود دارد که مربوط به مراحل پیش و پس از مدل‌سازی هستند.

از همین رو ۷ مهارت علوم داده که در ادامه معرفی می‌شوند با مهارت‌های یک تحلیل‌گر داده، مهندس نرم‌افزار یا مهندس داده هم‌پوشانی دارد. اکنون زمان معرفی این ۷ مهارت علوم داده است که توسط مدیران گوگل، انویدیا و شرکت‌های بزرگ دیگری توصیه شده است.

<br/> بیشتر بخوانیدداده کاوی (Data mining) چیست؟ هر آنچه باید در مورد این فناوری بدانید

۱) اس‌کیو‌ال برای متخصصان علوم داده

اس‌کیو‌ال زبان جهانی دنیای داده‌ها است. فرقی نمی‌کند دانشمند علوم داده، مهندس یا تحلیلگر داده باشید، نکته مهم این است که شما باید اس‌کیو‌ال را یاد بگیرید. از اس‌کیو‌ال برای استخراج، تغییر و ایجاد مسیر‌های داده‌ای استفاده می‌شود. این زبان برنامه‌‌نویسی نقش حیاتی در مراحل پیشا تحلیل و قبل از مدل‌سازی در چرخه حیات داده بازی می‌کند.

توانایی ایجاد کوئری‌های موثر و مقیاس‌پذیر که بتوانند با چندین پتابایت داده کار کنند، به طور روزافزون مورد توجه شرکت‌ها قرار گرفته است. از همین رو توسعه مهارت‌های برجسته در زبان برنامه‌نویسی اس‌کیو‌ال به عنوان مهارتی برای یادگیری علوم داده، سطح تحلیل‌ها، تصویرسازی و مدل‌سازی شما را به شکل معنی‌داری افزایش می‌دهند. با اس‌کیو‌ال می‌توانید به شکلی کاملا متفاوت از قبل با داده‌ها کار کنید.

بیشتر بخوانید

پنج الگوریتم خوشه‌بندی برتر که متخصصین علوم داده باید بدانند

۲) تصویرسازی و قصه‌گویی با داده‌ها

«یک تصویر به اندازه هزار کلمه حرف می‌زند»، این قاعده معروف اینجا هم وجود دارد. در دنیای علوم داده شما به عنوان متخصص علوم داده دائما نیازمند ارائه گزارش‌ به مدیران یا کارفرمایان هستید. در نتیجه می‌توان گفت تصویرسازی و قصه‌گویی از داده‌ها نه فقط مختص به تحلیل داده‌هاست، بلکه در علم داده هم کاربرد دارند.

منظور از تصویرسازی با داده‌ها نمایش گرافیکی داده‌ها در قالب‌هایی مثل نمودار است، البته همیشه راه‌های خلاقانه‌تری هم وجود دارد که یکی از آن‌ها قصه‌گویی است. قصه‌گویی با داده‌ها میزان درک تصویری از داده‌ها را افزایش داده و بر پایه این مفهوم شکل‌گرفته که یک متخصص علوم داده چگونه نظرات تخصصی‌اش درباره داده‌ها را به دیگران انتقال می‌دهد. مثلا یک کتاب قصه تصویری، طراحی‌های زیبایی دارد که توسط یک روایت قوی و جذاب در سراسر کتاب به همدیگر وصل شده‌اند.

تقویت مهارت‌های تصویر‌سازی و قصه‌گویی با داده‌ها در علوم داده بسیار ضروری است و به نوعی درآمد متخصصان این حوزه را تضمین می‌کند. این نکته مخصوصا در ارتباط با افرادی که اطلاعات کمتری نسبت به فناوری هوش مصنوعی دارند مهم است.

۳) پایتون

به نظر می‌رسد پایتون در حال ربودن گوی سبقت از زبان برنامه‌نویسی R است؛ نه اینکه با یادگیری زبان R نتوانید در زمینه علوم داده تخصص کسب کنید، اما تسلط بر پایتون یک امتیاز فوق‌العاده است. کار کردن با R مثل حرف زدن با زبانی است که خیلی‌ها آن‌ را متوجه نمی‌شوند.

زبان برنامه‌نویسی پایتون به شما این امکان را می‌دهد تا با استفاده از کتابخانه‌های متنوع، اپلیکیشن و مدل‌های جدیدی را توسعه دهید. این زبان برنامه‌نویسی یکی از زیرساخت‌های اصلی برای توسعه اپلیکیشن‌های ویرایش داده، طراحی مدل‌های یادگیری ماشین و نگارش فایل‌های دگ است.

بیشتر بخوانید

یادگیری ۷ مورد از مهارت های اساسی علوم داده به کمک یوتیوب

۴) جایگاه پانداس در علوم داده

پانداس یکی از کتابخانه‌های معروف پایتون است. بسیاری از متخصصان علم داده برای اجرای پروژه‌ها از این کتابخانه استفاده می‌کنند. در واقع می‌توان گفت تمام مراحل پاک‌سازی، اکتشاف و تغییر داده‌ها از طریق این کتابخانه قابل انجام است.

محبوبیت پانداس در علم داده و هوش مصنوعی نه فقط به خاطر کارایی‌اش، بلکه به این دلیل است که جدول‌های داده به یکی از استانداردهای داده‌ای در مدل‌های یادگیری ماشین تبدیل شده‌اند.

۵) گیت و کنترل ورژن

معضل نام‌گذاری بر روی ورژن‌های مختلف یک فایل هنوز از مسائل به ظاهر ساده اما مهمی است که آدم‌ها با آن سر و کار دارند. مثلا شما وقتی دانشجو بودید و قرار بود فایل مقاله پایان ترم را به استاد تحویل دهید، باید مجموعه‌ای از ورژن‌های مختلف با نام‌های مختلف را جستجو می‌کردید که هیچ منطقی پشت آن نبود.

از این داستان که بگذریم، گیت یکی از ابزارها و مهارت‌های مهم برای متخصص علوم داده است. با گیت می‌توانید فرایند نام‌گذاری ورژن‌های مختلف کدهای نوشته شده را به صورت محلی و توزیع شده ذخیره و مدیریت کنید.

سایر دلایلی که مهارت کار کردن با گیت را مهم می‌کند:

  • امکان بازگشت به ورژن‌های قبلی کدها
  • میسر کردن کار با چندین کدنویس و برنامه‌نویس به صورت همزمان
  • امکان کار بر روی یک مخزن کد مشابه در حین فعالیت بر روی پروژه‌های مختلف

بیشتر بخوانید

چرا قضیه حد مرکزی برای متخصصین علوم داده اهمیت دارد؟

۶) داکر

داکر یک پلتفرم ایزوله‌سازی است که به یک متخصص علوم داده اجازه می‌دهد تا بتوانند اپلیکیشن‌ها از جمله مدل های یادگیری ماشین را تعریف و اجرا کنند. اگرچه متن آگهی‌های شغلی همیشه دقیق نیستند، اما اکثر آن‌ها از متخصصان علوم داده می‌‌خواهند که توانایی راه‌اندازی مدل‌ها را نیز داشته باشند.

به هر حال مدلی که قابلیت راه‌اندازی نداشته باشد، ارزش تجاری نیز ندارد. از همین رو داکر مهارتی است که در دنیای علوم داده به متخصصان کمک می‌کند تا برای مدل‌های‌شان ارزش افزوده ایجاد کنند.

۷) ایرفلو

ایرفلو یکی از ابزارهای مدیریت چرخه کار است که مجموعه این فرایند را به شکل خودکار درآورده است. به عبارت دیگر وظیفه ایرفلو در جهان علوم داده خودکارسازی چرخه‌های گردش کار برای مسیرهای داده‌ای و یادگیری ماشین است. ایرفلو ابزار قدرتمندی برای به کارگیری جدول‌ها برای تحلیل بیشتر و یا مدل‌سازی است.

از سوی دیگر کسب این مهارت به شما اجازه می‌دهد تا مدل‌های یادگیری ماشین را نیز راه‌اندازی کنید. در پایان ذکر این نکته ضروری است که مسیرهای متنوعی برای دستیابی به هدف‌تان وجود دارد. اما اگر به علم داده علاقه‌مندید و می‌خواهید از تجربه آموخته دیگران استفاده کنید، این ۷ مهارت کاربردی در زمینه علوم داده را فراموش نکنید.

منبع: هوشیو

ai-admin بازدید : 57 شنبه 13 آذر 1400 نظرات (0)

باتوجه‌به رقابتی که میان شرکت‌های جدید بهره‌مند از متخصصین بنام RPAو غول‌های فناوری بر سر خودکارسازی فرایندهای کاری شرکت‌ها شکل گرفته، انتظار می‌رود ارزش بازار RPA، امسال به سه‌میلیارد دلار برسد.

این روزها شرکت‌ها به‌دنبال ابزارهایی هستند تا گردش‌های کاری دیجیتالی کارآمدتری ایجاد کنند و همین امر راه را برای رونق و شکوفایی بازار RPA هموار کرده است.

شرکت‌ها در تلاش‌اند تا هرچه سریع‌تر فرایندهای دستی هزینه‌بر را، چه در واحد پشتیبانی و چه در بخش‌هایی که به‌نوعی با مشتری ارتباط دارند (مثلاً مدیریت فروش و مدیریت ارتباط با مشتری)، با فرایندهای خودکار جایگزین کنند. در این میان، همه‌گیری ویروس کرونا نیز تا حدودی به تسریع این روند دامن زده است.

فورستر ریسرچ ارزش بازار اتوماسیون فرایندهای رباتیک (RPA) را میلیارد دلار برآورد کرده است. دست‌کم دویست شرکت‌، ازجمله تعدادی از غول‌های فناوری همچون مایکروسافت، در حوزه RPA فعالیت دارند و بر سر شرکت‌هایی که به‌دنبال خودکارسازی فرایندهای دستی خود هستند با یکدیگر به رقابت می‌پردازند.

کریگ لو کلر، معاون فورستر و تحلیل‌گر ارشد، در گزارشی که سیزدهم ماه اوت پیرامون وضعیت بازار منتشر شد، بر اهمیت هوش مصنوعی در آینده فناوری RPA تأکید کرد.

گاردنر نیز در گزارشی که پیرامون RPA منتشر کرده است، برآورد مشابهی از ارزش این بازار داشته است.

لو کلر، که کتابی نیز حول موضوع هوش مصنوعی، اتوماسیون و RPA نوشته است، از RPA هوشمند به‌عنوان یکی از اصلی‌ترین محرکه‌هایی یاد می‌کند که شرکت‌ها را به‌سمت تمام‌دیجیتالی‌شدن سوق می‌دهد.

در این پرسش و پاسخ، لو کلر برای ما از اتوماسیون هوشمند و تحول دیجیتال مبتنی بر RPA می‌گوید و به این پرسش پاسخ می‌دهد که آیا ارائه‌دهندگان تخصصی RPA همچون UiPath و WorkFusion شایسته ارزش و اعتبار بالایی که دارند هستند یا خیر.

پرسش و پاسخ با معاون فورستر ریسرچ در خصوص RPA

چه تفاوتی میان اتوماسیون هوشمند و RPA وجود دارد؟

فناوری RPA امور را خودکار می‌سازد و عملیات‌های واحد پشتیبانی را در مدت زمان کمتری انجام می‌دهد. RPA برای اثبات ارزش خود می‌بایست اجزای هوشمندتری داشته باشد، زیرا RPA سنتی به یادگیری ماشین مجهز نبود. اتوماسیون هوشمند به ربات‌های RPAای گفته می‌شود که بر پایه یادگیری ماشین و هوش مکالمه‌ای استوار هستند. اتوماسیون هوشمند مفهوم گسترده‌تری است که علاوه بر RPA، اتوماسیون سنتی گردش کار یا همان BPM (مدیریت فرایند کسب‌وکار)، ربات‌های سخن‌گو، یادگیری ماشین و تحلیل متن با هدف استخراج اطلاعات را نیز در بر می‌گیرد.

بیشتر بخوانید

کاربست هوش مصنوعی در صنایع و تقویت زیرساخت‌های سخت‌افزاری کشور

آینده اتوماسیون گردش کاری را در شرکتی که با تکیه بر RPA دستخوش تحول دیجیتالی شده است، طی پنج سال آینده چگونه ارزیابی می‌کنید؟

اصطلاح اتوماسیون نیروی کار ترکیبی از منابع انسانی و نیروی کار دیجیتالی است. در چنین شرایطی است که UiPath می‌تواند در یک مرحله ۳۵میلیارد دلار سرمایه‌ جذب کند، به دلیل وجود این تصور که روزی تمامی نیروهای کار انسانی یک دستیار دیجیتالی یا یک ربات خواهند داشت که با تکیه بر سایر فناوری‌های هوش مصنوعی، هوشمندتر از ربات‌های RPA امروزی عمل خواهند کرد و به‌نوعی در نقش ربات‌های شخصی نیروهای کار فعالیت می‌کنند.

دلیل استفاده از ربات‌ها این است که در آینده فرایندهای کاری به شیوه‌ای متفاوت انجام خواهند شد. گردش‌های کاری امروزی ساده هستند. در آینده، با نیروی کاری دوگانه‌ای (انسان + نیروی کار دیجیتال) سروکار خواهیم داشت که مدیریت آنها مستلزم درکی همه‌جانبه و غنی از فرایندهای کاری است. بدین منظور باید از تحلیل‌های پیشرفته و یادگیری ماشین استفاده کنیم که درک منطق زیربنایی آنها امکان‌پذیر نیست. سپس از الگوریتم‌های یادگیری ماشین تطبیق الگو استفاده می‌کنیم تا بفهمیم در زمانی خاص چه عملی باید انجام شود. بدین ترتیب می‌توانیم افراد یا نیروهای کاری دیجیتالی را مأمور انجام امور مورد نظر کنیم.

استفاده از سرویس‌های ارائه‌دهندگان‌ تخصصی RPA یا شرکت‌های بزرگ‌تری که در کنار خدمات دیگر، سرویس‌های RPA  نیز ارائه می‌دهد چه سودی برای شرکت‌ها دارد؟

ارزش RPA به کاربردهایی است که می‌تواند در طیف گسترده‌ای از صنایع داشته باشد، صنایعی که می‌توانند از اتوماسیون یا نیروی کار دوگانه به نفع خود استفاده کنند. اگر جزء شرکت‌هایی هستید که به اهمیت و سودمندی RPA واقف هستید، لازم است این فناوری را استانداردسازی و از آن پشتیبانی کنید.

اگر کاربران شما در زمینه‌های خاصی فعالیت دارند و تمامی داده‌ها در همان مرکز داده ابری پردازش می‌شوند، بهتر است از سرویس‌های ارائه‌دهندگان تخصصی RPA استفاده کنید. شرکت‌ها بر سر این دوراهی قرار می‌گیرند که برای خودکارسازی فرایندهای خود از RPA مایکروسافت استفاده کنند یا از یک راهکار نقطه‌ای.

ممکن است ترجیح دهید مایکروسافت تمامی امور مربوط به توسعه کسب‌وکارتان را انجام دهد، چرا که فرایند خودکارسازی وقتی بر عهده نیروی کار ماهر باشد آسان‌تر می‌شود. اما در موقعیت‌های پیچیده‌تر، پیشنهاد من این است که از UiPath استفاده کنید. شرکت‌ها و ابزارهای RPA بی‌شماری وجود دارد. البته استفاده از ربات‌ها در سیستم‌های اصلی مخاطره‌هایی به همراه دارد و همین امر موجب پییچده‌تر شدن شرایط می‌شود.

بیشتر بخوانید

زوج نخبه جوان از تجربه‌شان در دیدار با رهبر معظم انقلاب می‌گویند

با توجه به گستردگی بازار RPA و اینکه گفتید ارزش آن تا سال آینده به سه‌میلیارد دلار می‌رسد، آیا فکر می‌کنید ارائه‌دهندگان RPA بیش از ارزش واقعی‌شان ارزش‌گذاری می‌شوند؟

فکر نمی‌کنم. من همه‌روزه با شرکت‌ها سروکار دارم. RP‌‌‌‌‌A می‌تواند بسیاری از موانعی را که بر سر راه پیشرفت این شرکت‌ها وجود دارد برطرف کند. شصت تا هفتاد درصد از برنامه‌ها فاقد رابط برنامه‌نویسی اپلیکیشن (API) هستند. و یکی از راه‌های دسترسی به آن استفاده از رابط کاربریهایی (UI) است که RPA آنها را ارائه می‌دهد.

بدهی فنی مانعی بر سر راه تحول است. معماری RPA به گونه‌ای است که می‌تواند هزاران ربات را مدیریت و کنترل کند. در آینده برای هماهنگ‌سازی نیروی کار به این معماری نیاز پیدا خواهید کرد. امور بی‌شماری وجود دارند که باید به‌صورت خودکار درآیند. در این میان، همه‌گیری ویروس کرونا موجب ارزشمندتر شدن این بازار شده است. افراد زیادی وجود دارند که به دنبال کاهش ارزش این بازار هستند، اما من کماکان معتقدم این بازار روند صعودی خواهد داشت.

به عقیده شما آیا شرکت‌ها نیروی کافی و مناسب را برای مدیریت موج عظیم ربات‌های RPA در اختیار دارند؟

فکر می‌کنم پاسخ این سؤال «خیر» است و به همین دلیل است که موج تقاضا در صنعت RPA افزایش یافته است. در حال حاضر، شرکت‌ها تخصص کافی در این زمینه ندارند. آیا شرکت‌ها نیروهایی را که در زمینه تحلیل متن و  پردازش زبان طبیعی (NLP) تجربه داشته باشند در اختیار دارند؟ آیا آن‌ها درکی از مدیریت تصمیمات مبتنی بر پایتون دارند؟ اگر قصد دارید ربات‌ها را درون‌سازمانی مدیریت کنید، از صد نیروی تمام‌وقت، باید هشت تا ده درصد آنها را به مدیریت ربات‌ها اختصاص دهید. به‌جای استفاده از نیروی انسانی می‌توان وظیفه خودکارسازی، تعمیر، نگهداری و پشتیبانی را به ربات‌ها محول کرد. حتی اگر همچنان از نیروی انسانی در این فرایند استفاده کنیم، سامانه اتوماسیون بر کار آنها نظارت خواهد داشت و آن را بازبینی می‌کند.

جدیدترین اخبار هوش مصنوعی ایران و جهان را با هوشیو دنبال کنید

منبع: هوشیو

ai-admin بازدید : 58 پنجشنبه 11 آذر 1400 نظرات (0)

محققان کلیات این موضوع را مشخص کرده‌اند که چگونه می‌توان رباتی را آموزش داد تا با تحریک الکتریکی سلول‌های عصبی کِشت‌شده متصل به آن از یک هزارتو عبور کند. این سلول‌های عصبی که از روی سلول‌های زنده کِشت شده‌اند، برای کامپیوتر نقش مخزن فیزیکی را دارند و سیگنال‌هایی منسجم ایجاد می‌کنند. یافته‌‌های این پژوهش نشان می‌دهد که می‌توان با ارسال سیگنال‌های مختل‌کننده به یک سیستم تعبیه‌شده، بدون نیاز به یادگیری بیشتر، رفتارهای هدفمند ایجاد کرد.

آموزش هوشمندی به ربات ها

آیا آموزش هوشمندی به ربات ها ممکن است؟ پیشرفت‌های فناوری رایانش مخزنی فیزیکی در رمزگشایی سیگنال‌های مغز، می‌تواند نقشی مؤثر در تولید آن دسته از ماشین‌های هوش مصنوعی داشته باشد که مثل انسان فکر می‌کنند.

محققان دانشگاه توکیو در مقاله‌ای که در یکی از مجلات انتشارات مؤسسه فیزیک آمریکا منتشر شده، مشخص کرده‌اند که می‌توان با تحریک الکتریکی سلول‌های عصبی کِشت‌شده و متصل به ماشین، به ربات آموزش داد تا از هزارتو عبور کند.

این سلول‌های عصبی یا نورون‌ها از سلول‌های زنده کشت شده‌‌اند و کامپیوتری مخزنی برای ایجاد سیگنال‌های منسجم به شمار می‌آیند.

بیشتر بخوانید

یادگیری عمیق در دستگاه های تعبیه شده

این سیگنال‌ها با عنوان سیگنال‌های هوموستاتیکی نیز شناخته می‌شوند که محیط داخلی را برای ربات مشخص می‌کنند و هنگامی که ربات آزادانه در هزارتو حرکت می‌کند، این سیگنال‌ها نقش خط مبنا را ایفا می‌کنند.

هر زمان که ربات به مسیر نادرست منحرف شود یا در جهت آن قرار گیرد، یک تکانه الکتریکی در نورون‌های کِشت‌شده اختلال ایجاد می‌کند. در حین انجام آزمایش‌ها آن‌قدر سیگنال‌های هوموستاتیکی، که پیوسته با سیگنال‌های مختل‌کننده قطع می‌شوند، به ربات ارسال می‌شود تا با موفقیت از هزارتو بیرون بیاید.

این یافته‌ها نشان می‌دهند که می‌توان رفتارهای هدفمند را بدون نیاز به یادگیری بیشتر و تنها از طریق ارسال سیگنال مختل‌کننده به سیستم تعبیه‌شده ایجاد کرد. ربات محیط اطرافش را نمی‌بیند و هیچ اطلاعات حسی دیگری را دریافت نمی‌کند، بنابراین کاملاً وابسته به تکانه‌های الکتریکی مبتنی بر آزمون و خطا است.

خروجی منسجم

هیروکازو تاکاهاشی، یکی از نویسندگان مقاله و دانشیارِ رشته داده‌کاوی مکانیکی دراین‌باره می‌گوید: «من به‌شخصه از این آزمایش‌ها الهام گرفتم و این فرضیه را مطرح کردم که سازوکار هوش یک موجود زنده می‌تواند از حالتی بی‌نظم یا آشفته، خروجی منسجمی را استخراج کند.»

با تکیه بر این اصل، محققان نشان دادند که می‌توان با استفاده از یک کامپیوتر مخزنی برای استخراج سیگنال‌های عصبی آشفته و ارسال سیگنال‌های هموستاتیک یا مختل‌کننده به توانایی هوشمند حل مسئله رسید. کامپیوتر، با انجام این کار، مخزنی ایجاد می‌کند که روش حل مسئله را می‌فهمد.

بیشتر بخوانید

دستاورد هوش مصنوعی در توان بخشی : رابط مغز-ماشین محصول شرکت Neuralink

تاکاهاشی معتقد است: «یک کودک دبستانی احتمالاً به این دلیل نمی‌تواند مسائل ریاضی پیچیده را حل کند که پویایی مغز او، یا به عبارتی ’کامپیوتر مخزنی‘ مغز او، به قدر کافی غنی نیست. بر اساس میزان غنای مجموعه‌ای از الگوهای مکانی-زمانی
 که شبکه تولید می‌کند، می‌توان توانایی حل مسئله را تعیین کرد.»

این تیم تحقیقاتی معتقد است به‌کارگیری رایانش مخزنی در این مسائل به شناخت بهتر سازوکار مغز انسان و احتمالاً ساخت کامپیوتر نورومورفیک منجر خواهد شد و امکان آموزش هوشمندی به ربات ها را فراهم خواهد کرد.

جدیدترین اخبار هوش مصنوعی ایران و جهان را با هوشیو دنبال کنید

منبع: هوشیو

    ai-admin بازدید : 54 چهارشنبه 10 آذر 1400 نظرات (0)

    اِن‌ویدیا (رهبر فناوری مراقبت‌های بهداشتی) به همراه بیمارستان آدن‌بروک کمبریج و ۲۰ بیمارستان دیگر از سراسر جهان از هوش مصنوعی (AI) برای پیش‌بینیِ نیازهای بیماران کرونایی به اکسیژن در مقیاس وسیع استفاده کرده‌اند. در این پژوهش‌ها که در پی شیوع بیماری همه‌گیر کووید-۱۹ مورد توجه قرار گرفت، ساخت ابزار AI برای پیش‌بینی مقدار اکسیژن اضافی که یک بیمار کرونایی در روزهای نخست بستری در بیمارستان احتیاج دارد مد نظر بود. پژوهشگران از داده‌های چهار قاره برای پیشبرد اهداف پژوهشی خود استفاده کردند.

    در روش موسوم به یادگیری همیارانه، از الگوریتمی برای تحلیل تصویربرداری‌های با اشعه ایکس از قفسه سینه و داده‌های الکترونیکی سلامت از بیماران بستری در بیمارستان با علائم کرونا استفاده شد. برای حفظ محرمانگی اطلاعات بیماران، داده‌های مربوط به ایشان به‌صورت کاملاً ناشناس مورد استفاده قرار گرفت و الگوریتمی به هر بیمارستان ارسال شد تا هیچ داده‌ای به اشتراک گذاشته نشود یا از محل خود خارج نشود. پس از آموزش الگوریتم با استفاده از این داده‌ها، تجریه‌وتحلیل‌ها گردآوری شد تا ابزار هوشمندی ساخته شود که بتواند میزان اکسیژن مورد نیاز بیماران کرونایی بستری در بیمارستان در هرکجای جهان را پیش‌بینی کند.

    یادگیری همیارانه بالینی

    این پژوهش که در مجله پزشکی نیچر با نام EXAM (EMR CXR AI Model) چاپ شد، یکی از بزرگ‌ترین و متنوع‌ترین پژوهش‌های یادگیری همیارانه بالینی، تا به امروز، است. محققان، دقت این ابزار را در بیمارستان‌های مختلف جهان، از جمله بیمارستان آدن‌بروک، آزمایش کردند. بر اساس نتایج، اکسیژن مورد نیاز بیماران کرونایی در طی ۲۴ ساعت نخست حضورشان در بخش اورژانس با حساسیت %۹۵ و شخصی‌بودگی بیش از ۸۸٪ پیش‌بینی شد.

    بیشتر بخوانید

    رفتارشناسی ویروس کرونا به کمک هوش مصنوعی

    پروفسور فیونا گیلبرت، که این مطالعه را در کمبریج هدایت کرد و رادیولوژیست افتخاری مشاور در بیمارستان آدن‌بروک و مدیر بخش رادیولوژیِ دانشکده پزشکی بالینی دانشگاه کمبریج است، خاطرنشان کرد: «یادگیری همیارانه از قدرت لازم برای انتقال نوآوری هوش مصنوعی به حوزه بالینی برخوردار است. تحقیقات ما نشان می‌دهد که این نوع همکاری‌های جهانی بسیار کارآمد و تکرارپذیرند، در این شرایط است که می‌توان نیازهای متخصصان بالینی را برطرف کرد و بر چالش‌های بهداشتی پیچیده و همه‌گیری‌های آینده فائق آمد.»

    پژوهش EXAM

    دکتر ایتای دایان، نویسنده اول مقاله از بیمارستان خصوصی مس جنرال بیرمنگام در آمریکا که الگوریتم EXAM در آنجا توسعه یافت، گفت: «معمولاً در فرایند توسعه‌ AI، وقتی الگوریتمی بر اساس داده‌های یک بیمارستان ایجاد می‌کنید، آن‌چنان که باید و شاید در سایر بیمارستان‌‌ها کار نمی‌کند. با توسعه‌ مدل EXAM با استفاده از یادگیری همیارانه و داده‌های عینی و چندوجهی از قاره‌های مختلف توانستیم مدل تعمیم‌پذیری بسازیم که می‌تواند به پزشکان سراسر جهان در خط مقدم کمک شایانی بکند.»

    پژوهش EXAM با همکاری محققانی از آمریکای جنوبی و شمالی، اروپا و آسیا به انجام رسید. این مدل فقط به دو هفته برای «آموزش» AI نیاز داشت تا پیش‌بینی‌های دقیقی انجام دهد. دکتر مونا جی. فلورس، مدیر هوش مصنوعی پزشکی در شرکت اِن‌ویدیا، اظهار داشت: «یادگیری همیارانه این فرصت را در اختیار محققان قرار داد تا با همکاری با یکدیگر استاندارد جدیدی برای آنچه به کمک قدرت AI در سراسر جهان می‌توان کرد تنظیم کنند. انتظار می‌رود هوش مصنوعی نه‌تنها در مراقبت‌های بهداشتی، بلکه در کلیه صنایعی که به‌دنبال ساخت مدل‌های مقاوم هستند بدون اینکه حریم خصوصی را قربانی کنند، به پیشرفت‌های چشمگیری برسد.»

    بیشتر بخوانید

    پیش‌بینی نیاز بیماران کرونایی به ونتیلاتور از طریق هوش مصنوعی

    در این پژوهش، نتایج حدود ۰۰۰/۱۰ بیمار کرونایی در سراسر جهان، تحلیل شد؛ از جمله ۲۵۰ نفری که در موج اول بیماری کووید-۱۹ در ماه‌های مارس و آوریل به بیمارستان آدن‌بروک مراجعه کردند.

    این پژوهش با حمایت مؤسسه ملی تحقیقات سلامت و مرکز پژوهش‌های زیست‌پزشکی کمبریج انجام شد. پرفسور گیلبرت در پایان گفت: «تولید نرم‌افزاری که با عملکرد برترین رادیولوژیست‌ها هم‌خوانی داشته باشد کار بسیار پیچیده‌ای است، اما به‌راستی آرزویی تحول‌آفرین است. هرچه با امنیت بیشتری اطلاعات منابع مختلف را با استفاده از یادگیری همیارانه و مشارکتی تجمیع کنیم و فضای لازم برای نوآوری را نیز داشته باشیم، دانشگاهیان سریع‌تر می‌توانند آن اهداف تحول‌آفرین را بدل به واقعیت کنند.»

    منبع: هوشیو

    ai-admin بازدید : 57 سه شنبه 09 آذر 1400 نظرات (0)

    طی چند سال گذشته برنامه‌های مبتنی بر یادگیری ماشین و هوش مصنوعی روند یادگیری را به یک تجربه سرگرم‌کننده و دوطرفه تبدیل کرده‌اند. دانش‎‌آموزان و همچنین موسسات آموزشی به لطف پیشرفت‌های موجود در این حوزه، هم اکنون از نرم افزارهای سفارشی‌سازی شده که مجهز به واقعیت مجازی و واقعیت افزوده هستند بهره می‌برند. امروزه به دلیل شرایطی که بیماری کووید ۱۹ به وجود آورده یادگیری از راه دور به بخشی جدایی‌ناپذیر از سیستم آموزشی ما تبدیل شده است، در نتیجه نمی‌توان نقش فناوری را درباره منحنی یادگیری نادیده گرفت.

    مهمترین مزیت یادگیری ماشین و هوش مصنوعی در مورد منحنی یادگیری دانش‎‌آموزان این است که اکنون این فناوری‌ها می‌توانند مسیرهای یادگیری شخصی ایجاد کنند، که به دانش‎‌آموزان کمک می‌کند تا بر روی نقاط ضعف و قوت خود تمرکز کنند.

    بر اساس مجموعه داده‌های موجود، فناوری یادگیری ماشین و هوش مصنوعی می‌تواند خروجی و نتیجه را پیش‌بینی کند و در طول آماده‌سازی آزمون‌ها و تست‌ها به یک منبع غنی و کارآمد تبدیل شود. ممکن است دانش‎‌آموزی در یک موضوع عملکرد خوبی داشته باشد اما در یک درس دیگر نه. به کارگیری این فناوری‌های نوین و تعیین مسیر یادگیری مشخص، به آن‌ها در ایجاد تعادل کمک می‌کند.

    کمک در زمینه مطالب درسی

    پیشرفته مربوط به یادگیری ماشین و هوش مصنوعی منحصر به منحنی یادگیری نشده و این فناوری‌ها به دانش‎‌آموزان در زمینه مطالب درسی نیز کمک می‌کنند. یک بانک عظیم داده به معنای حق انتخاب از میان انبوهی از مطالب برای مطالعه است. با کمک یادگیری ماشین و هوش مصنوعی، چندین چک‌پوینت ایجاد می‌شود که محتوا را بر اساس چند پارامتر تعریف‌شده ارزیابی کنند. این کار کمک می‌کند تا توصیه‌های بهتر و مرتبط‌تری ارائه شود.

    بیشتر بخوانید

    مصورسازی داده های ورزشی با استفاده از پایتون، Matplotlib و Seaborn

    این موضوع باعث می‌شود تا دانش‎‌آموزان متناسب با استعداد خاص خود از مطالب انتخاب شده استفاده کنند. البته نباید نقش محتوای تولیدشده توسط کاربر را نیز در اینجا نادیده گرفت. در حالی که ماشین‌ها واقعاً در حال پیشرفت هستند، اما ذهن انسان هنوز هم در بحث آموزش اولویت دارد. ادغام فناوری و محتوای تولیدشده توسط کاربران می‌تواند بهترین حالت برای منحنی یادگیری هردانش‎‌آموزی باشد. در واقع، تلفیق فناوری و ذهن انسان نقطه عطف تکامل ما است.

    تعیین اینکه چه روش تدریسی مناسب بیشتر دانش‎‌آموزان است بسیار دشوار است. یک برنامه درسی با کمک یادگیری ماشین و هوش مصنوعی که به خوبی طراحی شده می‌تواند به سرعت از این مانع عبور کند. حقیقت این است که در حال حاضر چند برنامه درسی مبتنی بر هوش مصنوعی در دسترس هستند و آن‌ها به دانش‎‌آموزان در سطوح مختلف ارائه می‌شوند. همچنین موضوعات این برنامه‌ها نیز مختلف هستند و شامل علوم، ریاضیات، انشا و غیره هستند. اگرچه چنین سیستم و برنامه‌هایی در سطوح بالاتر و جایی که نیاز به خلاقیت بیشتر است به کار نمی‌آیند، اما برای شفافیت اصول و مفاهیم بسیار کارآمد هستند.

    سیستم ارزیابی مبتنی بر یادگیری ماشین و هوش مصنوعی

    سیستم ارزیابی مبتنی بر فناوری‌های یادگیری ماشین و هوش مصنوعی، بازوی دیگری برای منحنی یادگیری دانش‎‌آموزان  است. یادگیری ماشین و هوش مصنوعی به معلمان این امکان را داده تا به یک بانک سوال بزرگ دسترسی داشته باشند. همچنین با استفاده از آن ارزیابی‌های خود را دقیق‌تر و بهتر انجام دهند. این همه ماجرا نیست، معلم‌ها می‌توانند این ارزیابی‌ها را با استفاده از لپ‌تاپ یا حتی گوشی‌های تلفن خود انجام دهند. پس از آن و از طریق گزارش‌های داده شده آن‌ها بینش بهتری از نقاط قوت و ضعف دانش‎‌آموزان  به دست خواهند آورد.

    بیشتر بخوانید

    تفاوت یادگیری خودنظارتی و نیمه نظارتی چیست؟

    با این کار در وقت معلمان صرفه‌جویی می‌شود در نتیجه معلمان فرصت بیشتری برای پرداختن به مسائل مهم و به اشتراک‌گذاری دانش خود خواهند داشت. یکی دیگر از کاربردهای هوش مصنوعی در آموزش مجدد است. بسیاری از  دانش‎‌آموزان ممکن است بار اول مطالب آموزشی را یاد نگیرند و آن درس را نتوانند پاس کنند در نتیجه نیاز به آموزش مجدد دارند. با هوش مصنوعی معلمان قادر به رفع نیازهای منحصر به فرد هر دانش‎‌آموزان  هستند، در نتیجه منحنی یادگیری را هم به صورت تکی و هم برای همه دانش آموزان بهبود می‌بخشند.

    انواع کاربردهای هوش مصنوعی در صنایع مختلف را در هوشیو بخوانید

    منبع: هوشیو

    ai-admin بازدید : 56 دوشنبه 08 آذر 1400 نظرات (0)

    امروزه هوش مصنوعی در خدمت دانشگاه ها است و می‌تواند کمک زیادی به دانشجویان بکند. هر ساله نزدیک بیست میلیون دانشجو وارد دانشگاه‌های آمریکا می‌شوند. با توجه به اهمیت انتخاب دانشگاه در آینده‌ی تحصیلی و شغلی افراد، دانشجویان در این برهه‌ی زمانی با سؤالات فراوانی (در مورد رشته‌ها، شرایط قبولی، شهریه، پردیس، دانشکده و …) روبرو می‌شوند. از طرف دیگر، دانشگاه‌ها هم برای جذب دانشجویان شایسته با هم رقابت دارند؛ به همین دلیل، پاسخگویی درست به این پرسش‌ها و معرفی کامل امکانات برای دانشگاه‌ها اهمیت بالایی دارد.

    هوش مصنوعی در خدمت دانشگاه ها

    دانشگاه‌ها زمان و منابع زیادی به برقراری تعامل با دانشجویان بالقوه اختصاص می‌دهند. هزینه‌ی سالانه‌ی پذیرش در دانشگاه‌های آمریکا به میلیاردها دلار می‌رسد. همه‌گیری کووید-۱۹ نیز به چالش‌های پیش روی دانشگاه‌ها افزوده است: در شرایطی که عمده‌ی تعاملات حضوری (از جمله مراجعه به پردیس دانشگاه‌ها و نمایشگاه معرفی کالج‌ها) غیرممکن شده‌اند، دانشگاه‌ها باید راهی برای برقراری ارتباط با دانشجویان پیدا کنند.

    خبر خوب اینجاست که برای این مشکل هم راه‌حلی مطرح شده است: فناوری اثبات‌شده‌ای که تاکنون به سازمان‌های سراسر دنیا کمک کرده از طریق تعاملات شبه‌انسانی و شخصی‌سازی شده، به صورت خودکار و در مقیاسی وسیع، مشتری جذب کنند. در واقع کاربرد هوش مصنوعی در خدمت دانشگاه ها قرار است شرایط را برای دانشجویان تسهیل کند.

    راه‌حل نهایی: هوش مصنوعی مکالمه‌ای

    بنا به چهار دلیل زیر، دانشگاه‌ها باید برای ارتقای کیفیت فرآیند پذیرش خود و پاسخگویی به نیازها و انتظارات، از راهکارهای هوش مصنوعی مکالمه‌ای استفاده کنند. با این روش کاربرد هوش مصنوعی در خدمت دانشگاه‌ها خواهد بود و کار را ساده‌تر می‌کند.

    ۱. پاسخگویی به سؤالات رایج به صورت یکپارچه

    «در مورد رشته‌های درسی سؤال دارم»

    «فرآیند ثبت‌نامم را از کجا شروع کنم؟»

    «شهریه این رشته چقدر است؟»

    موارد بالا چند نمونه از متداول‌ترین سؤالات دانشجویان هستند. کارکنان بخش پشتیبانی و مسئولان آموزشی مجبورند بارها و بارها به صورت دستی، از طریق تلفن یا ایمیل، به این سؤالات پاسخ دهند. پاسخگویی و مدیریت این حجم سؤال، به خصوص در شرایط فعلی که مراجعه‌ی حضوری امکان‌پذیر نیست، اگر نه غیرممکن، امری بسیار دشوار به شمار می‌رود.

    اینجاست که هوش مصنوعی مکالمه‌ای وارد صحنه می‌شود و هوش مصنوعی در خدمت دانشگاه ها است. دستیارهای مجازی مجهز به هوش مصنوعی می‌توانند این پرسش‌ها و FAQها (سؤالات متداول) را به صورت یکپارچه و بدون هیچ گونه نیازی به مداخله‌ی انسانی، پاسخ دهند. این دستیاران، با تکیه بر فناوری هوش مصنوعی مکالمه‌ای، کار خود را به شیوه‌ای انجام می‌دهند که تجربه‌ی صحبت با یک فرد واقعی و دریافت توجه از او را برای مخاطبان شبیه‌سازی می‌کند.

    همانطور که در تصاویر بالا می‌بینید، دستیار هوش مصنوعی به سؤالات دانشجویان در مورد رشته‌ها پاسخ داده و علاوه بر این، در مورد وبسایت‌ها و منابع دیگر هم (در صورت نیاز) اطلاعات در اختیار آن‌ها قرار می‌دهد. این دستیارها با توجه به فرآیند ثبت نام مخصوص هر دانشگاه‌، دانشجویان را هدایت می‌کنند. با این روش به بهترین شکل هوش مصنوعی در خدمت دانشگاه ها است.

    دانشگاه‌ها می‌توانند با تکیه بر هوش مصنوعی مکالمه‌ای، پشتیبانی بهتری به دانشجویان بالقوه ارائه داده و در عین حال، با آزاد کردن وقت کارکنان، به آن‌ها اجازه دهند روی مسائل پیچیده‌تر تمرکز کنند.

    در شرایط کنونی که امکان حضور در محل کار برای خیلی از افراد فراهم نیست، کاهش وابستگی امور به کارکنان می‌تواند بسیار مفید باشد.

    ۲. دسترسی در همه‌ی زمان‌ها

    هوش مصنوعی مکالمه‌ای این امکان را در اختیار دانشگاه‌ها قرار می‌دهد تا به صورت شبانه روزی با دانشجویان در ارتباط باشند و این یعنی یک بار دیگر هوش مصنوعی در خدمت دانشگاه ها است. دستیار هوش مصنوعی در لحظه به سؤالات آن‌ها پاسخ داده و در هر زمانی از روز یا شب از آن‌ها پشتیبانی به عمل می‌آورد.

    پاسخگویی سریع و به موقع به پرسش‌های دانشجویان بستری مناسب برای تعامل با آن‌ها فراهم کرده و باعث می‌شود تجربه‌ای دلپذیر از این فرآیند داشته باشند. به کارگیری این فناوری فرسودگی متقاضیان که از دسترسی نداشتن به کارکنان و عدم پاسخگویی ناشی می‌شود را کاهش می‌دهد. قابلیت دسترسی شبانه‌روزی به دستیارهای هوش مصنوعی زمانی از اهمیت ویژه‌ای برخوردار است که دانشگاه‌ها با دانشجویان بین‌المللی، از مناطق زمانی متفاوت، سر و کار داشته باشند.

    ۳. تور مجازی از پردیس

    رشته و شرایط پذیرش تنها عوامل تأثیرگذار بر انتخاب دانشگاه نیستند. پردیس دانشگاه‌ها در تصمیم‌گیری دانشجوها نقش مهمی ایفا می‌کند. این نکته دور از ذهن هم نیست؛ دانشجویان قرار است چند سال از زندگی خود را در این محیط بگذارنند. علاوه بر زیبایی و ظاهر دلنشین پردیس، زیرساخت‌ها و تجهیزات آن نیز عاملی تعیین‌کننده در انتخاب دانشجویان به شمار می‌رود.

    به همین دلیل است که بسیاری از دانشجویان در فرآیند انتخاب دانشگاه، از پردیس‌ها بازدید می‌کنند. متأسفانه در حال حاضر و در آینده‌ی نزدیک، این بازدیدها امکان‌پذیر نخواهند بود. حتی در شرایط عادی و بدون همه‌گیری هم ممکن است برخی از دانشجویان (به خصوص دانشجویان بین‌المللی) قادر نباشند به شهرهایی که دانشگاه‌ها در آن واقع شده‌اند سفر کنند.

    به کمک دستیارهای هوش مصنوعی می‌توان امکان تور مجازی از پردیس را برای دانشجویان علاقه‌مند فراهم آورد. دانشجویان با مشاهده‌ی این تصاویر و ویدئوها، پردیس را جستجو کرده و احساس خود نسبت به آن را دریافته، و در مورد امکانات و جاذبه‌های دانشگاه نیز اطلاعات کسب می‌کنند. دستیار هوش مصنوعی نقش راهنمای این تور را دارد و به سؤالات دانشجویان در مورد پردیس و امکاناتش، حقایق جالب در مورد دانشگاه و موارد متفرقه، پاسخ می‌دهد.

    بیشتر بخوانید

    شناسایی علائم پنهان نارسایی قلبی از طریق هوش مصنوعی

    شاید این تور مجازی به پای بازدید واقعی و حضوری نرسد، اما مطمئناً از هیچی بهتر است.

    ۴. آسان‌سازی تعاملات شخصی

    هوش مصنوعی مکالمه‌ای کارهای خارق‌العاده‌ای انجام می‌دهد؛ اما شاید دانشجویان بالقوه دوست داشته باشند با مشاور، دانشجوی سال‌بالایی یا حتی یکی از اساتید هم صحبت کنند.

    خوشبختانه دستیار هوش مصنوعی در این زمینه هم به دانشگاه‌ها کمک می‌کند.

    پلتفرم هوش مصنوعی مکالمه‌ای ابزاری به نام «عامل گفت و گو» دارد که می‌تواند به آسانی مکالمه را از دستیار هوش مصنوعی به یک شخص منتقل کند.

    پس در صورتی که دانشجوی بالقوه بخواهد با مشاور صحبت کند و مشاور هم در دسترس باشد، مکالمه به او منتقل شده و به صورت زنده ادامه می‌یابد.

    علاوه بر این، به کمک دستیار هوش مصنوعی می‌توان در مورد اعضای هیأت علمی هرکدام از رشته‌ها اطلاعات کسب کرد و با گفت و گوی مستقیم با آن‌ها، شناخت بهتری نسبت به رشته‌ها به دست آورد. به همین طریق می‌توان با دانشجویان سال‌بالایی هم ارتباط برقرار کرد تا از نظرشان نسبت به دانشگاه آگاه شده و انتظارات خود از دانشگاه را تطبیق داد.

    گاهی اوقات، فرد مورد نظر دانشجو در همان لحظه امکان برقراری ارتباط را ندارد؛ در این شرایط، دستیار هوش مصنوعی گزینه‌ای دارد که به دانشجویان اجازه می‌دهد برای برقراری تماس تلفنی یا ویدئویی با مشاور، استاد یا دانشجویان، زمانی را مشخص و تنظیم کنند.

    این مکالمات نه تنها به تلاش‌های دانشگاه برای جذب دانشجویان بالقوه کمک می‌کنند، بلکه روی تصمیم آن‌ها در مورد ثبت‌نام در دانشگاه و انتخاب رشته‌ی درسی نیز تأثیر بسیار نافذی دارند.

    جمع‌بندی

    انتخاب دانشگاه برای همه‌ی دانشجویان تصمیم مهمی به شمار می‌رود. به همین دلیل، برای دانشگاه‌ها حیاتی است که امکانات خود را به شیوه‌ای کارآمد به دانشجویان بالقوه نمایش و اطلاعات لازم برای تصمیم‌گیری آگاهانه را در اختیار آن‌ها قرار دهند. فناوری هوش مصنوعی مکالمه‌ای امکان انجام این کار را در مقیاس وسیع و به صورت لحظه‌ای، در اختیار دانشگاه‌ها قرار داده و در عین حال وابستگی رویه‌ها و امور کاری روی کارکنان را کاهش می‌دهد.

    دانشگاه‌ها با استفاده از دستیار هوش مصنوعی به عنوان سفیر مجازی خود، در کنار همه‌ی تلاش‌ها و اقداماتی که صرف جذب دانشجو می‌کنند، این ذهنیت را به دانشجویان می‌دهند که با انتخاب آن‌ها، به «دانشگاه عصر آینده» قدم خواهند گذشت. بدین شکل هوش مصنوعی در خدمت دانشگاه ها خواهد بود و به بهترین شکل خدمات را ارائه می‌دهد.

    انواع کاربردهای هوش مصنوعی در صنایع مختلف را در هوشیو بخوانید

    منبع: هوشیو

    ai-admin بازدید : 59 یکشنبه 07 آذر 1400 نظرات (0)

    محققان مرکز «Mount Sinai» موفق به ساخت الگوریتم رایانه‌ای ویژه‌ای شده‌اند که مجهز به هوش مصنوعی است. این الگوریتم می‌تواند تغییرات ناچیز در نوار قلب را شناسایی کند. بنابراین، می‌توان پیش‌بینی کرد که بیمار دچار نارسایی قلبی می‌شود یا خیر.

    دکتر بنجامین اس. گلیکسبرگ، استادیار ژنتیک و علوم ژنومی، عضو مؤسسه سلامت Hasso Platner در مرکز Mount Sinai و نویسنده ارشد مقاله اظهار داشت: «یافته‌های ما نشان می‌دهد که الگوریتم‌های یادگیری عمیق می‌توانند مشکلات پمپاژ خون در هر دو سمت قلب را از روی داده‌های نوار قبلی تشخیص دهند. در حالت عادی، تشخیص این نوع مشکلات قلبی مستلزم به‌ کارگیری راهکارهای زمان‌بر و پرهزینه‌ای است.»

    مقاله حاضر که در مجله دانشگاه قلب‌شناسی آمریکا، قسمت عکس‌برداری قلبی- عروقی چاپ شده است، تحت رهبریِ آکیل واید قرار داشت. واید به عنوان پژوهشگر فوق‌دکتری در آزمایشگاه گلیکسبرگ و آزمایشگاهِ گیریش ان. ناکارنی فعالیت می‌کند.

    ناکارنی استادیار پزشکی در دانشکده پزشکی Ichan مرکز Mount Sinai، مدیر بخش پزشکی داده‌محور و دیجیتال و یکی از نویسنده‌های ارشد مقاله حاضر است.

    نارسایی قلبی

    حدود ۲/۶ میلیون شهروند آمریکایی از نارسایی قلبی یا نارسایی قلبی مزمن رنج می‌برند. این بیماری زمانی رخ می‌دهد که حجم خون کمتری برای رفع نیاز اعضای بدن پمپاژ می‌کند. پزشکان برای سالیان متمادی از نوعی روش عکس‌برداری موسوم به نوار قلب برای ارزیابی احتمال ابتلای بیماران به نارسایی قلبی استفاده کرده‌اند. نوار قلب، روش مفید اما پُرکاری است که فقط در برخی بیمارستان‌ها به کار برده می‌شوند.

    بیشتر بخوانید

    قابلیت عجیب الگوریتم‌های هوش مصنوعی در تشخیص نژاد از روی تصاویر پزشکی

    با این حال، دستاوردهای اخیر هوش مصنوعی نشان می‌دهد که دستگاه نوار قلب، دستگاه ثبت الکتریکی پرکاربرد، می‌تواند جایگزین سریع و قابل‌دسترسی در این موارد باشد. برای نمونه، مطالعات بسیاری نشان داده‌اند که الگوریتم یادگیری عمیق چگونه می‌تواند ضعف عملکرد بطن چپ قلب را شناسایی کند. بطن چپ خون سرشار از اکسیژن تازه را به بقیه اعضای بدن ارسال می‌کند. در این مطالعه، محققان درباره توسعه الگوریتمی صحبت می‌کنند که قدرت بطن چپ و راست را ارزیابی می‌کند. بطن راست، خون بدون اکسیژن بدن را دریافت می‌کند و آن را به ریه‌ها پمپاژ می‌کند.

    چالش‌های دستگاه نوار قلب

    دکتر ناکارنی خاطرنشان کرد: «پزشکان همیشه در استفاده از دستگاه نوار قلب برای تشخیص نارسایی قلبی با چالش‌هایی روبه‌رو شده‌اند. دلیل این چالش را می‌توان تا حدی به این موضوع نسبت داد که هیچ معیار تشخیص ثابتی برای این ارزیابی‌‌ها وجود ندارد و چشم انسان قادر به شناسایی تغییرات کوچک در تصاویر نوار قلب نیست. مطالعه حاضر، گامی رو به جلو برای دسترسی به اطلاعات نهفته در داده‌های تصاویر نوار قلب است. این مطالعه می‌تواند به پایش و الگوهای درمانی بهتری منجر شود. این کار با استفاده از یک تست نسبتاً ساده و قابل‌دسترس انجام می‌شود.»

    دستگاه نوار قلب فرایندی دومرحله‌ای دارد: سیم‌ها به قفسه سینه بیمار متصل می‌شوند و دستگاه قابل‌حملی که از طراحی خاصی بهره می‌برد، چندین خط خمیده یا موج‌شکل‌ را چاپ می‌کند. این موج‌شکل فعالیت الکتریکی قلب را نشان می‌دهد. بسیاری از بیمارستان‌ها و آمبولانس‌های آمریکا به این دستگاه‌ها مجهز هستند و کار با آن‌ها به آموزش کمی نیاز دارد.

    بیشتر بخوانید

    درمان پرخاشگری های کودکان به کمک هوش مصنوعی

    در مطالعه حاضر، محققان کامپیوتری را برای خواندن نوار قلب بیماران و داده‌های به‌دست‌آمده از گزارش‌های کتبی برنامه‌نویسی کردند. نتایج نوار قلب بیماران در این گزارش‌ها خلاصه شده است. در این شرایط، گزارش‌های کتبی به‌سان مجموعه‌داده‌های استانداردی برای کامپیوتر هستند، تا آن‌ها را با داده‌های نوار قلب مقایسه کند و نحوه‌ شناسایی قلب ضعیف را یاد بگیرد.

    نرم‌افزارهای پردازش زبان طبیعی نقش مؤثری در استخراج داده‌ها از گزارش‌های کتبی داشت. افزون بر این، شبکه‌های عصبی ویژه‌ای که قادر به شناسایی الگوهای موجود در تصاویر هستند، به کار برده شدند، تا الگوریتم عملکرد بهتری در تشخیص قدرت پمپاژ قلب داشته باشد.

    دکتر واید بیان کرد: «توسعه‌ نوعی هوش مصنوعی که به شکل آسان و مقرون‌به‌صرفه قادر به درک کل سازوکار قلب باشد، از جمله اهداف اصلی ما بود.»

    استفاده از داده‌ها برای پیش‌بینی نارسایی قلبی

    کامپیوتر بیش از ۰۰۰/۷۰۰ نوار قلب و گزارش نوار قلبی را که در طی سال‌های ۲۰۰۳ تا ۲۰۲۰ از ۰۰۰/۱۵۰ بیمار بستری‌شده در مرکز «Mount Sinai Health System» جمع‌آوری شده بود، خواند. داده‌های چهار بیمارستان برای آموزش کامپیوتر به کار برده شدند، اما از داده‌های بیمارستان پنجم برای بررسی این مسئله استفاده شد که الگوریتم چگونه در شرایط آزمایشی متفاوت عمل می‌کند.

    دکتر ناکارنی گفت: «از جمله مزایای بالقوه‌ مطالعه حاضر این است که یکی از بزرگ‌ترین مجموعه‌های تصاویر نوار قلب را از میان یکی از متنوع‌ترین جمعیت بیماران جهان استفاده کرده است.»

    نتایج اولیه

    طبق نتایج اولیه، الگوریتم عملکرد مؤثری در پیش‌بینی احتمالِ داشتن بطن چپ سالم یا خیلی ضعیف داشت. در اینجا، توان با ضریب خروج خون از بطن چپ تعریف شده است. این ضریب نشان می‌دهد که بطن با هر تپش قلب چه مقدار سیال پمپاژ می‌کند. سونوگرافی قلب این جزئیات را نشان می‌دهد. ضریب خروج خون از قلب سالم ۵۰ درصد یا بیشتر است، اما این ضریب در قلب ضعیف به ۴۰ درصد یا کمتر می‌رسد.

    با این حال، الگوریتم عملکرد چندان مؤثری در پیش‌بینیِ اینکه کدام بیماران، قلب نسبتاً ضعیفی دارند، بر جای نگذاشت. در این مورد، نرم‌افزار از دقت ۷۳ درصدی در پیش‌بینی بیمارانی با ضریب خروج خون ۴۰ تا ۵۰ درصد برخوردار بود. نتایج بیشتر نشان داد که الگوریتم یاد گرفت تا ضعف دریچه راست را از روی تصاویر نوار قلب شناسایی کند. در این مورد، از عبارت‌های توصیفی (استخراج‌شده از گزارش نوار قلب) برای تعریف ضعف استفاده شد. الگوریتم توانست بیمارانی را که دریچه راست ضعیفی داشتند، با دقت ۸۴ درصدی پیش‌بینی کند.

    بیشتر بخوانید

    کشت و درمان تومورهای مجازی با استفاده از نانوذرات طراحی‌شده توسط هوش مصنوعی

    دکتر واید اظهار کرد: «نتایج ما نشان داد که این الگوریتم شاید سرانجام به پزشکان کمک کند، تا نارسایی را به شکل درستی در هر دو بطن قلب تشخیص دهند.»

    تجزیه و تحلیل‌های بیشتر حاکی از آن است که صرف‌نظر از نژاد و جنسیت، این الگوریتم ممکن است عملکرد مؤثری در شناسایی ضعف قلب در همه بیماران داشته باشد.

    دکتر گلیکسبرگ در پایان گفت: «بر اساس نتایج، این الگوریتم می‌تواند ابزار مفیدی در دست متخصصان بالینی باشد، تا نارسایی قلبی را تشخیص دهند که عده زیادی از بیماران را درگیر کرده است. درحال‌حاضر، مشغول طراحی آزمایش‌هایی برای آزمودنِ تأثیرگذاریِ این الگوریتم در شرایط واقعی‌تر هستیم.»

    به نظر شما هوش مصنوعی در چه زمینه‌های دیگری می‌تواند در خدمت انسان باشد که به آن‌ها کمتر توجه شده است؟

    جدیدترین اخبار هوش مصنوعی ایران و جهان را با هوشیو دنبال کنید.

    منبع: هوشیو

    ai-admin بازدید : 27 شنبه 06 آذر 1400 نظرات (0)

    توصیف الگوریتم به عنوان یک سیستم تصمیم‌گیری، عمدتاً راهی است برای برداشتن بار مسئولیت تصمیم‌گیری از روی دوش انسان‌ها. در نظر بسیاری از افراد، الگوریتم به مجموعه قوانینی اشاره دارد که به صورت عینی و بر اساس شواهد تجربی یا داده‌ها ساخته‌ شده‌اند. همچنین می‌توان آن را سیستمی بسیار پیچیده دانست، این پیچیدگی تا حدی بالاست که درک عملیات درونی سیستم و یا پیش‌بینی رفتار آن در یک موقعیت خاص را برای انسان‌ها دشوار می‌کند.

    در اواخر دسامبر (سال ۲۰۲۰)،  اشتباه مرکز پزشکی استنفورد در اولویت‌بندی واکسن کووید-۱۹ (مقدم شمردن مدیران عالی بر پزشکان درگیر این بیماری) به گردن یک الگوریتم توزیع انداخته شد. طبق گزارش مجله‌ی MIT Technology Review، بیمارستان مدعی بود که برای ساخت این الگوریتم بسیار پیچیده (که به گفته‌ی نماینده‌ی بیمارستان «فقط درست کار نکرد») با اخلاق‌گرایان مشورت کرده بود. بسیاری از افراد استفاده از اصطلاح «الگوریتم» را بدین نحو برداشت کردند که هوش مصنوعی یا یادگیری ماشین در این جریان نقش داشتند. اما سیستم مذکور در اصل یک الگوریتم پزشکی بود که از نظر کارکردی با این موارد تفاوت دارد. این الگوریتم بیشتر شبیه یک ساختار ساده یا درخت تصمیم بود که توسط گروهی از انسان‌ها ساخته شده باشد.

    این فاصله و تفاوت نشان‌دهنده‌ی یک مشکل جدی و رو به رشد است. همزمان با رشد مدل‌های پیش‌بین، مردم در مورد کاربرد آن‌ها در تصمیم‌گیری‌های بحرانی دچار نگرانی‌های بیشتری می‌شوند. سیاست‌گذاران شروع به طراحی استانداردهایی برای ارزیابی و اعتبارسنجی الگوریتم‌ها کرده‌اند. بدین منظور ابتدا باید ابزارهای پشتیبانی از تصمیم (که تحت تأثیر سیاست‌هایشان قرار خواهد گرفت) و میزان اهمیت تصمیم را تعیین کنند. نبود تعریف مشخصی از اصطلاح «الگوریتم» باعث می‌شود بعضی از مدل‌ها که تأثیرگذاری عمیقی دارند، فراتر از محدوده اختیار سیاست‌ها قرار بگیرند. سیاست‌هایی که هدف از تنظیمشان، حصول اطمینان از آسیب‌زا نبودن چنین سیستم‌هایی بوده است.

    الگوریتم چیست؟

    آیا الگوریتم استنفورد واقعاً یک الگوریتم بود؟ بستگی دارد چطور این کلمه را معنا کنید. هیچ تعریفی از «الگوریتم» وجود ندارد که مورد قبول همگی باشد. با این حال، تعریفی برگرفته از یک کتاب مرجع (هارولد استون، ۱۹۷۱) وجود دارد که می‌گوید: «الگوریتم مجموعه‌ای از قوانین است که دنباله‌ای از عملیات را به صورت دقیق مشخص می‌کنند.» هرچیزی، از دستورپخت غذا تا شبکه های عصبی پیچیده، می‌تواند در این تعریف جای بگیرد. بنابراین پایه‌گذاری یک سیاست قانونی روی این تعریف کار درستی نخواهد بود.

    چطور یک الگوریتم را شناسایی کنیم

    در آمار و یادگیری ماشینی، الگوریتم را معمولاً مجموعه‌ای از دستورالعمل‌ها می‌دانیم که یک کامپیوتر برای یادگیری، پیروی می‌کند. در این حوزه‌ها، مدل به اطلاعات ساختاریافته‌ی نهایی گفته می‌شود. اطلاعاتی که کامپیوتر از طریق الگوریتم، از روی داده‌ها می‌آموزد می‌توانند «وزن‌هایی» باشند که هر عامل ورودی در آن ضرب می‌شود و یا شکل بسیار پیچیده‌تری به خود بگیرند. میزان پیچیدگی خود الگوریتم نیز می‌تواند متغیر باشد. کارکرد نهایی الگوریتم‌ها بستگی به داده‌هایی دارد که روی آن‌ها پیاده می‌شوند و زمینه‌ای که مدل نهایی در آن اجرا می‌شود. یک الگوریتم می‌تواند در یک زمینه، کارکردی مثبت داشته باشد و در زمینه‌ای دیگر، اثری کاملاً متفاوت از خود نشان دهد.

    بیشتر بخوانید

    سوگیری الگوریتم برش تصویر توئیتر

    در حوزه‌های دیگر، چیزی که در پارگراف بالا مدل خواندیم، خود یک الگوریتم در نظر گرفته می‌شود. این گفته شاید گیج‌کننده به نظر برسد اما در تعریف وسیع‌تر درست است. یعنی مدل‌ها قوانینی هستند که توسط الگوریتم آموزشی کامپیوتر (و نه انسان‌ها) آموخته می‌شوند و یک مجموعه عملیات را تعریف می‌کنند. برای مثال، سال گذشته در انگلستان، رسانه‌ها شکست یک الگوریتم در تخصیص نمرات عادلانه به دانش‌آموزانی را اعلام کرد که به دلیل کووید-۱۹ قادر به حضور سر جلسه‌ی امتحان نبودند. مشخص است که این رسانه‌ها در مورد مدل صحبت می‌کردند، یعنی مجموعه‌ای از دستورالعمل‌ها که ورودی (عملکرد گذشته‌ی دانش‌آموز یا ارزیابی معلم) را به خروجی (نمرات) تبدیل می‌کرد.

    به نظر می‌رسد اتفاقی که در استنفورد افتاد این بود که انسان‌ها (از جمله اخلاق‌گرایان) خود تعیین کردند سیستم باید از چه مجموعه عملیات‌هایی استفاده کند تا بر اساس ورودی‌های مشخصی (همچون سن و واحد کاری فرد) تصمیم بگیرد آیا یک نفر باید در اولویت دریافت واکسن قرار بگیرد یا خیر. تا جایی که ما می‌دانیم، این مجموعه عملیات بر اساس رویه‌ی مشخصی که برای اهداف کیفی خاصی بهینه شده باشد، طراحی نشده‌ بود. بلکه یک مجموعه تصمیمات هنجاری در مورد نحوه‌ی اولویت‌بندی واکسن‌ها بودند. با این تفاوت که شکل زبان یک الگوریتم را به خود گرفتند. این رویکرد در واژه‌شناسی پزشکی و در تعریف گسترده، یک الگوریتم به شمار می‌رود، هرچند تنها هوشی که در این فرآیند دخیل بوده، هوش انسان‌ها بوده است.

    بیشتر بخوانید

    تشخیص بیماری آلزایمر به کمک الگوریتم‌های یادگیری ماشین

    روی کارکرد تمرکز کنید، نه ورودی

    قانون‌گذاران نیز اخیراً به تعریف الگوریتم‌ها علاقه‌مند شده‌اند. HR2291 یا طرح مسئولیت‌پذیری الگوریتمی که برای اولین بار در سال ۲۰۱۹ در کنگره‌ی ایالات متحده معرفی شد از اصطلاح «سیستم تصمیم‌گیری خودکار» استفاده کرده و آن را بدین صورت تعریف می‌کند: «یک فرآیند محاسباتی که می‌تواند مبتنی بر تکنیک‌های یادگیری ماشینی، آمار یا دیگر روش‌های پردازش داده ها و هوش مصنوعی باشد. این فرآیند محاسباتی می‌تواند خود تصمیم بگیرد یا تصمیم‌گیری انسان‌ها را تسهیل کند و بدین ترتیب روی کاربران (مشتریان) تأثیر بگذارد.»

    نیویورک سیتی هم در حال بررسی قانونی به نام Int1894 است که احراز هویت و اعتبارسنجی «ابزارهای تصمیم‌گیری خودکار» را الزامی می‌کند. طبق تعریف این قانون، «این ابزارها می‌توانند سیستمی باشند که کارکردشان توسط یک نظریه‌ی آماری مدیریت می‌شود، یا هر سیستمی که پارامترهایش توسط چنین سیستم‌هایی تعیین می‌شود.» هر دوی این قوانین اعتبارسنجی را الزامی می‌دانند، اما فقط دستورالعمل‌هایی پیشرفته از تعریف اعتبارسنجی ارائه می‌دهند.

    تصمیم‌گیرندگان در دولت و صنعت استانداردهایی برای اعتبارسنجی الگوریتمی طراحی می‌کنند. با این حال، در مورد این‌که چه چیزی الگوریتم به شمار می‌رود اختلاف‌نظرهایی وجود دارد. به جای تلاش برای دستیابی به توافق روی تعریف الگوریتم یا یک تکنیک اعتبارسنجی جهانی خاص، پیشنهاد می‌کنیم سیستم‌ها در وهله‌ی اول بر مبنای کارکردشان ارزیابی شوند. با تمرکز روی خروجی (به جای ورودی) می‌توانیم از بحث‌های بیهوده بر سر پیچیدگی‌های فنی پرهیز کنیم. فارغ از این‌که با یک فرمول و ساختار جبری سروکار داریم یا با یک شبکه‌ی عصبی عمیق، آن‌چه اهمیت دارد احتمال آسیب‌‌زایی سیستم است.

    بیشتر بخوانید

    کارایی الگوریتمی و نقش آن در پیشرفت هوش مصنوعی

    چارچوب DREAD

    «اثر» یک عامل اساسی برای ارزیابی در سایر حوزه‌ها به شمار می‌رود. این عامل در چارچوب کلاسیک DREAD که در حوزه‌ی امنیت سایبری نیز کاربرد دارد، در نظر گرفته شده است. چارچوب DREAD در اوایل ۲۰۰۰ توسط مایکروسافت عمومی شد و همچنان در شرکت‌ها به کار برده می‌شود. A در DREAD به این معنی است که ارزیابان خطر باید تعداد کاربران تحت تأثیر را تعیین کنند. این امر با طرح این سؤال انجام می‌شود که «چند نفر از یک آسیب خاص متأثر خواهند شد؟» ارزیابی اثر در حوزه‌های حقوق انسانی و تحلیل پایداری نیز کاربرد دارد. علاوه بر این، مشاهده شده است که برخی از توسعه‌گران حوزه‌ی ارزیابی اثر در هوش مصنوعی نیز به این موضوعات می‌پردازند. برای مثال، مرکز ارزیابی اثر الگوریتمیکانادا بر اساس سؤالات کیفی (همچون «آیا کاربران این خط کار آسیب‌پذیرند؟») یک نمره از این عامل به دست می‌آورد.

    ورود یک اصطلاح متدوال همچون «اثر» به هرگونه ارزیابی، دشواری‌هایی در پی دارد. چارچوب DREAD بعدها توسط چارچوب  STRIDE تکمیل و جایگزین شد. این امر تا قسمتی به سختی‌های ایجاد توافق و اشتراک بین باور افراد از نحوه‌ی مدلسازی خطرات برمی‌گردد. مایکروسافت در سال ۲۰۰۸ استفاده از DREAD را متوقف کرد.

    بیشتر بخوانید

    قابلیت عجیب الگوریتم‌های هوش مصنوعی در تشخیص نژاد از روی تصاویر پزشکی

    مفهوم اثر در حوزه‌ی هوش مصنوعی، توسط کنفرانس‌ها و ژورنال‌ها معرفی شد. با این حال هنوز مسیر خیلی زیادی تا کامل شدن فاصله داریم. تکنیک‌های ارزیابی‌ اثری که تماماً فرمولی هستند به آسانی به بازی گرفته می‌شوند، از سوی دیگر تعاریف مبهم نیز می‌توانند منجر به سردرگمی و ارزیابی‌هایی بسیار طولانی شوند.

    در هر حال، همه‌ی این اقدامات همچنان گامی رو به جلو حساب می‌شوند. نکته‌ی مهم این است که واژه‌ی الگوریتم نباید به عنوان سپری در نظر گرفته شود که مسئولیت پیامدها را از دوش افرادی که سیستم‌ها را طراحی و استفاده می‌کنند، بردارد. مردم به صورت فزاینده به دنبال مسئولیت‌پذیری الگوریتمی هستند. مفهوم اثر یک زمینه‌ی مشترک برای گروه‌های مختلفی که باید به این خواسته پاسخ دهند ایجاد می‌کند.

    منبع: هوشیو

    ai-admin بازدید : 33 پنجشنبه 04 آذر 1400 نظرات (0)

    منطقه‌ی بین‌النهرین در محدوده‌ی خاورمیانه‌ی کنونی قرار دارد؛ امروزه این ناحیه بین کشورهای عراق، سوریه و اردن تقسیم شده است.

    شاید بسیاری از مردم خاورمیانه را صرفاً صحرایی خشک ببینند، اما این منطقه تاریخچه‌ای غنی دارد. تمدن‌هایی که در بازه‌های زمانی گوناگون در این ناحیه شکل گرفته‌اند، بقایایی اغواءکننده بر جای گذاشته‌اند که نظرها را به خود جلب می‌کنند. فناوری شیوه‌ی تأثیرگذاری و مطالعه‌ی تاریخ را تغییر داده است. اکنون پژوهشگران می‌توانند از رمز و رازهای گذشته پرده برداشته و به کشفیات جدیدی برسند؛ تورهای مجازی به شهرهای باستانی روم یا ابزارهایی مانند Lidar که مناطق حفاری شده در مناطق دوردست را تشخیص می‌دهند از جمله کاربردهای فناوری در این عرصه هستند.

    فناوری اشعه ایکس و هوش مصنوعی اخیراً دانشمندان را قادر ساخت تا با مطالعه‌ی حکاکی‌های موجود در ساختمان یک کلیسا، بدون حتی لمس مومیایی‌ها، به اطلاعاتی بی‌سابقه در مورد آن‌ها دست یابند. در نمونه‌ای دیگر می‌توان به قابلیت‌های بینایی کامپیوتر اشاره کرد: گروهی از محققان توانسته‌اند با استفاده از یادگیری عمیق، متون باستانی را با موفقیت رمزگشایی کنند.

    الگوریتم هوشمند تفسیر متون

    در این پروژه، هوش مصنوعی به کسب بینش در مورد کتیبه‌هایی ۴۵۰۰ ساله متعلق به بین‌النهرین انجامید. فناوری استفاده شده شبیه به قابلیت پیشنهاد خودکاری بود که در گوشی‌های همراه هوشمند مشاهده می‌شود. این الگوریتم هوشمند که برای خواندن و تفسیر متون به ۱۰۲ زبان آموزش دیده، توانست جای خالی کلمات گمشده در این کتیبه‌های سنگی را پر کند، کتیبه‌هایی که در طول هزاران سال در معرض انواع آسیب‌ها قرار گرفته‌ بودند.

    بیشتر بخوانید

    اشکال ‌زدایی از مدل یادگیری ماشینی

    محققان به کمک بینایی کامپیوتری مبتنی بر یادگیری عمیق موفق شدند ۱۰,۰۰۰ کتیبه که به خط میخی نوشته شده بودند را مطالعه کنند. پیشنهادات ارائه‌ شده به شکل مناسب متنون موجود را تکمیل کرد. بعد از جمع‌آوری و تحلیل داده‌های بیشتر برای ارتقای دقت، این روش نوآورانه توانست از بسیاری از اسرار تاریخ خاورمیانه پرده بردارد.

    یکی از این اسرار مربوط به حکاکی‌های موجود در کلیسای «مقبره مقدس» در شهر قدس بود. طومارهای عبری کشف شده در دریای مرده نیز به کمک فناوری‌های مشابه رمزگشایی شده‌اند.

    بعد از اکتشافات لبنان، در ترکیه هم توافقنامه‌ای دیرینه با استفاده از تصویربرداری سه‌بُعدی بازآفرینی شد و به صورت مجازی در دسترس علاقه‌مندان قرار گرفت. قطر نیز توانسته است تعداد زیادی اسناد باستانی در مورد تاریخ خاورمیانه را به شکل دیجیتال درآورده و در اختیار محققان و مشتاقان قرار دهد.

    انواع کاربردهای هوش مصنوعی در صنایع مختلف را در هوشیو بخوانید

    منبع: هوشیو

    ai-admin بازدید : 25 چهارشنبه 03 آذر 1400 نظرات (0)

    مفهوم حکمرانی خوب قریب به چند دهه است که متخصصان علوم اجتماعی جهان را به خود مشغول ساخته است. این مفهوم دربردارنده استانداردها و معیارهایی است که می‌تواند یک حکومت را از فساد و شکنندگی دور کند. به بیان دیگر برخی از معیارهای حکمرانی خوب شامل مشارکت، شفافیت، پاسخگویی، اثربخشی، کارایی و حاکمیت قانون هستند.

    به عقیده این مقاله، هوش مصنوعی در ضمن توسعه روزافزون خود، می‌تواند در حکمرانی خوب کارآمد باشد و به پیشبرد روزافزون آن کمک فراوانی کند. در همین رابطه بهتر است بنگریم به کاربست‌هایی که هوش مصنوعی در چند سال اخیر در نظام بوروکراسی و اقتصادی کشور داشته است.

    هوش مصنوعی شامل مجموعه تکنولوژی‌هایی است که می‌تواند حجم زیادی از داده‌ها را بدون خطای انسانی تحلیل کند. یکی از این فناوری‌ها که توانسته است به دیجیتالی شدن نظام بوروکراسی کشور کمک کند و یا اصطلاحاً، ایده دولت الکترونیک را متحقق سازد، فناوری احراز هویت است. جهان در حال تبدیل شدن به پلتفرم‌های گوناگون است. در کشور ما نیز این روند، اگرچه با شدتی اندک، اما در جریان است. کاربران برای استفاده از یک پلتفرم باید بتواند هویت خود را به سامانه معرفی کند و نیز سامانه تشخیص دهد کاربر کیست و چه مشخصاتی دارد. این مکانیزم‌ها و موارد بیشتر، همگی با میانجیگری فناوری احراز هویت میسر است.

    یا به طور مثال، بر اساس برآورد اقتصاددانان تا پایان امسال کسب و کارهای آنلاین بیش از ۷ درصد در تولید ناخالص داخلی کشور سهم خواهند داشت. این میزان از سهم تولید ناخالص داخلی روندی روبه افزایش داشته است. چنان‌که در سال ۹۸ سهم آن به زیر ۵ درصد می‌رسید. نکته مهم آن است که فعالیت کسب و کارهای آنلاین بدون وجود فناوری احراز هویت قابل تصور نیست. این نمونه تنها چکیده‌ای از اهمیت هوش مصنوعی و کاربرد آن در اقتصاد است. به طور طبیعی، وجود سامانه احراز هویت می‌تواند به تحقق اصول متعدد حکمرانی خوب، از جمله اصل شفافیت، بینجامد. زیرا با واسطه این فناوری‌ها، کیستی کاربران حاضر در فضای سایبر به خوبی مشخص می‌شود و به همان میزان نیز امنیت ایشان در فضای مجازی افزایش خواهد یافت.

    بیشتر بخوانید

    پیش‌بینی کلمه بعدی در گفتمان به وسیله هوش مصنوعی

    جدیدترین اخبار هوش مصنوعی ایران و جهان را با هوشیو دنبال کنید.

    منبع: هوشیو

    ai-admin بازدید : 25 سه شنبه 02 آذر 1400 نظرات (0)

    نوآوری الگوریتم های پیشرفته هوش مصنوعی اهمیت بیشتری از سخت‌افزارها دارد. به ویژه اگر مسائل دربردارنده‌ی میلیاردها تا تریلیون‌ها نقاط داده باشند. تیمی از دانشمندان در آزمایشگاه هوش مصنوعی و علوم کامپیوتر دانشگاه ام‌آی‌تی به نتیجه فوق دست یافتند.

    بنا به ادعای آنان، الگوریتم های پیشرفته هوش مصنوعی با سرعت خارق‌العاده‌ای در حوزه‌های مختلف در حال پیشرفت هستند. الگوریتم‌ها دستورالعمل‌های لازم را در اختیار نرم‌افزارها قرار می‌دهند تا از منطق داده‌های صوتی، متنی و دیداری سر در بیاورند. بنابراین، امکان استنباط از داده‌ها فراهم می‌آید. برای نمونه، GPT-3 (محصول شرکت نام‌آوازه‌ی OpenAI) در صفحات وب، کتاب‌های الکترونیکی و سایر اسناد آموزش دیده و قابلیت نوشتن مقاله‌هایی در سطح انسان را کسب کرده است.

    بیشتر بخوانید

    موانع توسعه هوش مصنوعی: از این ۵ مورد غافل نشوید

    هرچقدر الگوریتم کارآمدتر باشد، نرم‌افزار کار کمتری انجام می‌دهد. پیشرفت الگوریتم‌ها باعث می‌شود به نیروی محاسباتی کمتری نیاز داشته باشیم. اما این ادعا کماکان جای بحث و بررسی دارد. استارت‌آپ‌های زیرساخت و تحقیقات هوش مصنوعی از قبیل OpenAI و Cerberus بر این باورند که الگوریتم‌ها باید بزرگتر شوند تا به سطوح بالاتری از پیچیدگی دست یابند.

    تیمی از دانشمندان در آزمایشگاه هوش مصنوعی و علوم کامپیوتر دانشگاه ام‌آی‌تی به سرپرستی نیل تامسون توانستند داده‌های ۵۷ کتاب درسی کامپیوتر و بیش از ۱۱۱۰ مقاله پژوهشی را مورد تجزیه و تحلیل قرار دهند تا بینش عمیق‌تری درباره تاریخچه الگوریتم های پیشرفته به دست آورَند. در مجموع، ۱۱۳ مجموعه الگوریتم که مسئله یکسانی را حل کرده بودند، بررسی شدند. این الگوریتم‌‍‌ها اهمیت بالایی داشتند.

    بازسازی تاریخچه

    دانشمندان تاریخچه‌ی این ۱۱۳ الگوریتم را بازسازی کردند. هر بار، الگوریتم جدیدی در یک مسئله بررسی شد و گزینه‌های کارآمد یادداشت شدند. این تیم کار خود را با بررسی الگوریتم‌های دهه ۱۹۴۰ میلادی آغاز کرد و به تدریج به الگوریتم های پیشرفته امروزی رسید. آنها به طور میانگین هشت الگوریتم در ازای هر مجموعه الگوریتم پیدا کردند که تا حدی ارتقای کارایی را تجربه کرده بودند.

    در مسائل محاسباتی بزرگ، %۴۳ از مجموعه الگوریتم‌ها به طور سالانه افزایش کارایی را تجربه کرده بودند که قدری فراتر از پیش‌بینی قانون مور بود. بر اساس این اصل، سرعت کامپیوترها هر دو سال یک بار تقریباً دو برابر افزایش می‌یابد. در %۱۴ از مسائل، پیشرفت عملکرد بسیار فراتر از پیشرفت سخت‌افزاری بود. الگوریتم‌های بهتر توانستند نقش مهم‌تری در رویارویی با مسائل کلان داده داشته باشند. مطالعات جدید ام‌آی‌تی مهر تاییدی بر این مجموعه از شواهد و قرائن می‌زند که اندازه الگوریتم‌ها اهمیت کمتری نسبت به پیچیدگی معماری‌ آنها دارد.

    بیشتر بخوانید

    الگوریتم چیست؟ بستگی دارد از چه کسی بپرسید

    برای نمونه، در ابتدای ماه جاری، تیمی از محققان گوگل مقاله‌ای را منتشر کردند که می‌گوید مدلی بسیار کوچک‌تر از GPT-3 در بسیاری از معیارهای چالش‌برانگیز از این مدل بهتر عمل می‌کند. شرکت OpenAI در یکی از نظرسنجی‌های خود در سال ۲۰۲۰ دریافت که میزان کارهای محاسباتی برای آموزش مدل‌های هوش مصنوعی از سال ۲۰۱۲ هر ۱۶ ماه یک بار با کاهش دو برابری همراه بوده است.

    تناقض

    یکی از یافته‌های دیگر با ادعای فوق تناقض دارد. محققان OpenAI در سال ۲۰۱۸ در گزارشی تحلیلی نشان دادند میزان محاسبات لازم در بزرگ‌ترین فرایندهای آموزش هوش مصنوعی از سال ۲۰۱۲ تا ۲۰۱۸ شاهد رشد ۰۰۰/۳۰۰ برابری بوده است. یعنی هر ۵/۳ ماه یک بار دو برابر شده است که بسیار فراتر از قانون مور می‌باشد.

    با فرض اینکه پیشرفت الگوریتم‌ها در سال‌های آتی بیش از پیش مورد توجه قرار خواهد گرفت، می‌توان امیدوار بود که آنها بخشی از مسائل مربوط به مدل‌های زبانی بزرگ را نیز حل کنند. از جمله این مسائل می‌توان به هزینه و اثرات زیست‌محیطی اشاره کرد.

    محققان دانشگاه ماساچوست در ماه ژوئن ۲۰۲۰ با انتشار گزارشی نشان دادند که توان لازم برای آموزش و جستجوی مدل‌های خاص باعث انتشار حدود ۰۰۰/۶۲۶ پوند کربن دی‌اکسید می‌شود. بنا به مطالعات شرکت گوگل، GPT-3 به تنهایی ۱۲۸۷ مگاوات در طی فرایند آموزش استفاده کرده و ۵۵۲ تُن انتشار کربن دی‌اکسید داشته است. در حالی که همین مقدار با مصرف برق دست ۱۰۰ خانوار در طی یک سال ثبت شده است.

    مدل تشخیص اخبار جعلی دانشگاه واشنگتن موسوم به Grover برای آموزش به ۰۰۰/۲۵ دلار نیاز دارد. شرکت OpenAI نیز ۱۲ میلیون دلار برای آموزش GPT-3 هزینه کرده است. علاوه بر این، گوگل مبلغ ۹۱۲/۶ دلار برای آموزش بِرت اختصاص داده است.

    اگرچه هزینه‌های آموزش هوش مصنوعی بین سال ۲۰۱۷ تا ۲۰۱۹ حدود ۱۰۰ برابر کاهش یافت، اما همین مبالغ بسیار فراتر از بودجه‌های محاسباتی اکثر موسسات و استارت‌آپ‌ها بوده است. تامسون در پایان خاطرنشان کرد: «ما در طی تحلیل‌های خود دریافتیم که چه مقدار از کارها را می‌توان با استفاده از نیروی محاسباتی یکسان و پس از ارتقای الگوریتم انجام داد. در عصری که ردپای زیست‌محیطی محاسبات به طرز فزاینده‌ای موجب تشدید نگرانی‌ها شده است، این اقدام می‌تواند به پیشرفت و توسعه‌ی کسب‌وکارها و سایر سازمان‌ها کمک کند.»

    منبع: هوشیو

    ai-admin بازدید : 27 دوشنبه 01 آذر 1400 نظرات (0)

    به عنوان فعالان جامعه‌ی علوم داده، شاهد آغاز یک infodemic (فزون‌باری اطلاعاتی) هستیم: جریانی از فزونی اطلاعات صحیح و غیرصحیح که داده ها را به جای یک ابزار کمکی، به یک بار اضافی تبدیل کرده است. جریان کنونی به سمت و سوی مدل‌هایی از هوش مصنوعی پیش می‌رود که نیاز به داده های فراوان و محاسبات سنگین دارند. این امر منجر به نارکارآمدی و عوارض منفی دیگری خواهد شد که در قسمت‌های بعدی این نوشتار به آن‌ها خواهیم پرداخت.

    به منظور اجتناب از پیامدهای منفی جدی، خود جامعه‌ی علوم داده باید به فکر اعمال محدودیت‌هایی از نظر داده ها و منابع محاسباتی باشد.

    کاربردهای هوش مصنوعی با استفاده از حداقل داده های ممکن، صنایع گوناگون مبتنی بر هوش مصنوعی (از جمله امنیت سایبری که در این نوشتار بیشتر روی آن تمرکز داریم) را قادر می‌سازند کارآیی، دسترسی‌پذیری، استقلال و نوآوری بیشتری داشته باشند.

    داده‌ی زیاد مزیت نیست

    قبل از این‌که وارد بحث اصلی شویم، مشکل تکیه بر الگوریتم‌هایی را توضیح می‌دهیم که به صورت فزاینده نیاز بیشتر و بیشتری به داده ها پیدا می‌کنند. مدل‌های مبتنی بر هوش مصنوعی بدون برنامه‌نویسی آشکار، از طریق فرآیند آزمون و خطا و بر اساس مجموعه‌ای از داده ها آموزش می‌بینند. به صورت تئوری، هرچه تعداد داده ها بیشتر باشد (حتی اگر بخش عمده‌ی آن‌ها به چشم غیرمسلح تفاوتی با هم نداشته باشند)، مدل عملکرد بهتر و دقیق‌تری خواهد داشت.

    بعد از تحول دیجیتالی شرکت‌ها، بسیاری از صنایع (همچون امنیت سایبری) به منظور دسترسی به دقت بیشتر و کاهش نرخ مثبت‌های کاذب، بر حجم بی‌سابقه‌ای از داده ها تکیه کردند و این امر را یک نقطه‌قوت می‌دانستند. اما ادامه‌ی این رویه، چالش‌های جدیدی را در پی داشته است:

    محاسبات رکن اصلی هوش مصنوعی شده است

    یکی از بزگ‌ترین نگرانی‌ها این است که پیشرفت‌های پژوهشی و تجربی هوش مصنوعی (که به شدت به دیتاست‌های بزرگ و زیرساخت‌های محاسباتی مناسب وابسته هستند)، به دلیل محدودیت‌های محاسباتی و حافظه‌ای با مانع مواجه می‌شوند. علاوه بر این، باید به هزینه‌های مالی و محیط زیستی ناشی از محاسبات سنگین نیز توجه داشت.

    شاید با ادامه‌ی همین رویه، به چند کشف عظیم و نوآورانه‌ی دیگر در هوش مصنوعی برسیم؛ اما به مرور زمان این پیشرفت و توسعه آهسته‌تر خواهد شد. تمایل جامعه‌ی علوم داده به مدل‌های جدیدی که نیاز به داده های فراوان و محاسبات سنگین دارند (همچون مدل‌های بزرگ‌مقیاس حوزه‌ی پردازش زبان طبیعی) را باید به عنوان یک هشدار در نظر گرفت.

    پژوهش‌های OpenAI نشان می‌دهند که جامعه‌ی علوم داده در دستیابی به اهداف موجود عملکرد موفقی داشته است، اما برای پیش‌برد و توسعه‌ی بیشتر به هزینه و محاسبات چند برابری نیاز دارد. پژوهشگران دانشگاه MIT برآورد کرده‌اند سه سال پیشرفت الگوریتمی برابر با افزایش ده برابری در قدرت محاسباتی است. علاوه بر این، ساخت یک مدل هوش مصنوعی معمولی که بتواند تغییرات متغیر مورد مطالعه را در طی زمان تحمل کرده و بر مشکل underspecification (ناتوانی در تمیز پیش‌بین‌ها) نیز غلبه کند، معمولاً به چندین دور آموزش و تنظیم نیاز دارد که به معنی نیاز به منابع محاسباتی بیشتر است.

    اگر تحت فشار گذاشتن هوش مصنوعی به معنی استفاده از منابع تخصصی‌تر (به قیمت هزینه‌های بیشتر) باشد، پس می‌توان گفت غول‌های فناوری بهای در صدر ماندن را پرداخت خواهند کرد؛ اما اکثر مؤسسات آکادمیک به ندرت خود را درگیر این توازن «ریسک بیشتر-سود بیشتر» می‌کنند. این مؤسسات ترجیح می‌دهند به دنبال فناوری‌های به صرفه باشند یا حوزه‌های پژوهشی مربوطه را دنبال کنند. محدودیت‌های چشمگیر محاسباتی، تأثیری بازدارنده روی پژوهشگران دانشگاهی داشته است، و باعث شده تمایلی به توسعه‌ی بیشتر در هوش مصنوعی نداشته باشند.

    کلان‌داده ها می‌تواند نقشی گمراه‌کننده داشته باشند

    حتی اگر هدف و معماری مدل هوش مصنوعی را به خوبی تعریف و طراحی، و داده هایی مرتبط هم جمع‌آوری، ساماندهی و آماده‌سازی کرده باشید، هیچ تضمینی وجود ندارد که مدل به نتایج مفید و عملیاتی دست یابد. حتی اگر طی فرآیند آموزش از داده های اضافی نیز استفاده شود، مدل همچنان ممکن است همبستگی‌هایی کاذب و گمراه‌کننده بین متغیرهای مختلف تشخیص دهد. ارتباط میان این متغیرها شاید از نظر آماری معنادار باشد، اما این رابطه، لزوماً علَی نیست و در نتیجه شاخص مفیدی برای پیش‌بینی به شمار نمی‌رود.

    بیشتر بخوانید

    Deep RL یا یادگیری تقویتی عمیق چه تاثیری بر رشد و پیشرفت رباتیک دارد؟

    من این مسئله را در حوزه‌ی امنیت سایبری مشاهده کرده‌ام؛ آن‌چه در این حوزه متداول است، استفاده از حداکثر تعداد ویژگی‌های ممکن به منظور تولید مکانیزم‌های تشخیص، تنظیمات امنیتی و فرآیندهای احراز هویت بهتر و قوی‌تر است. اما همبستگی‌های کاذب باعث می‌شوند همسبتگی‌هایی که واقعاً اهمیت دارند، نادیده گرفته شوند.

    روند پیشرفت همچنان خطی است

    این واقعیت که مدل‌های بزرگ که نیاز زیادی به داده دارند، تحت شرایط خاص عملکرد بسیار خوبی دارند (به دلیل تقلید از محتوایی که توسط انسان‌ها تولید شده یا با پیشی گرفتن از برخی قابلیت‌های تشخیص و بازشناسی انسانی) می‌تواند گمراه‌کننده باشد. به همین دلیل، متخصص علوم داده نمی‌تواند ببیند پژوهش‌های کاربردی هوش مصنوعی به نوعی فقط حاصل رشد خطی قابلیت‌هایی هستند که پیش از این وجود داشته‌اند، و در واقع هیچ پیشرفت واقعی رخ نداده است (که برای مثال به سازمان‌ها کمک کند سیستم‌ها و شبکه‌های خود را ایمن‌تر کنند).

    مدل‌های یادگیری عمیق غیرنظارت‌شده که از دیتاست‌های بزرگ تغذیه می‌کنند می‌توانند طی چند سال (به خصوص از طریق شبکه‌های یادگیری انتقالی و شبکه های مولد تخاصمی یا GAN) به نتایجی چشمگیر برسند. اما حتی با وجود پیشرفت‌های حوزه‌ی عصبی-نمادین هم مدل‌های مبتنی بر هوش مصنوعی با قابلیت‌هایی همچون بینش شبه‌انسانی، تصور، استدلال بالا به پایین (کل به جزء) و یا هوش مصنوعی عمومی (AGI) فاصله دارند؛ این قابلیت‌ها هستند که در مسائل اساسی جدید و گوناگون و همچنین ارتقای امنیت هنگام رویارویی با حملات تخاصمیِ پیچیده و پویا مفید هستند.

    نگرانی‌های مربوط به حریم خصوصی افراد در حال افزایش است

    مورد دیگر مربوط به جمع‌آوری، ذخیره‌سازی و استفاده از حجم بالا و گسترده‌ای داده (که شامل داده های تولیدشده توسط کاربران نیز می‌باشد) است. دسترسی و استفاده از این داده ها در برنامه‌های امنیت سایبری مجاز است، اما از طرفی هم ملاحظات و نگرانی‌‌های زیادی در مورد حریم خصوصی و موارد قانونی وجود دارد. پیش از این ادعاهایی مطرح شده بود مبنی بر این‌که داده های حوزه‌ی امنیت سایبری، اطلاعات شخصی قابل شناسایی (PII) را در بر نمی‌گیرند، اما این موضوع اکنون رد شده است. زیرا ارتباط قوی بین هویت افراد و دنیای دیجیتال، معنی قانونی PII (برای مثال حتی آدرس IP) را تغییر داده است.

    من چطور به این مبحث (استفاده از داده های کم) علاقه‌مند شدم؟

    به منظور غلبه بر مشکلاتی که در قسمت قبل بیان کردیم، به خصوص در حوزه‌ی امنیت سایبری، ابتدایی‌ترین و مهم‌ترین کار هم‌راستا و هماهنگ کردن انتظارات است.

    پیدایش ناگهانی کووید-۱۹ نشان داد مدل‌های هوش مصنوعی در سازگاری با شرایط غیرمنتظره، غیرقابل پیش‌بینی و موارد استثنائی (برای مثال رواج دورکاری در کل دنیا) مشکل دارند، به خصوص مدل‌های حوزه‌ی سایبری که بسیاری از دیتاست‌های آن ذاتاً ناهنجار  بوده یا واریانس بالایی دارند. همه‌گیری کووید-۱۹ اهمیت بیان دقیق و واضح هدف مدل و آماده‌سازی کافی داده های آموزشی را خاطرنشان کرد. این گام‌ها به اندازه‌ی جمع‌آوری نمونه‌های بیشتر (برای آموزش مدل) یا حتی انتخاب و پالایش معماری مدل اهمیت دارند.

    این روزها، صنعت امنیت سایبری باید بپذیرد که اوردوز داده یا infodemic سودی ندارد، و به همین دلیل باید وارد مرحله‌ی جدیدی از بررسی و تنظیم پارامترها شود. رویکردهایی که در ادامه توضیح می‌دهیم را می‌توان به عنوان راهنمایی بر چگونگی تسریع فرآیند بررسی و تنظیم پارامترها در نظر گرفت. این دستورالعمل‌ها برای سایر زمینه‌های هوش مصنوعی (به جز امنیت سایبری) نیز معتبر هستند.

    بیشتر بخوانید

    توضیح ساده و جامع مدل پنهان مارکوف (HMM)

    اولویت با کارآیی الگوریتمی است

    شرکت‌ها و پژوهشگران هوش مصنوعی با پیروی از قانون مور در تلاش‌اند کارآیی الگوریتمی را از طریق آزمایش روش‌ها و فناوری‌های نوآورانه افزایش دهند. این رویکردها (از کاربرد ترنسفرمرهای Switch گرفته تا اصلاح روش‌های یادگیری few shots, one-shot و less-than-one-shot) در حال حاضر تنها در مسائل خاصی کاربرد دارند.

    رویکرد اول، ارتقای قابلیت‌های شناختی و فیزیکی انسانی

    اگر مدل‌های هوش مصنوعی را تنها به تقویت رویه‌های حرفه‌ای امنیت اختصاص دهیم و امکان همکاری انسان‌ها و هوش مصنوعی را فراهم کنیم، قادر خواهیم بود مدل‌ها را در برنامه‌های امنیتی بسیار اختصاصی شده و دقیق اجرا کنیم. این همکاری از طریق مداخلات انسانی و یا الگوریتم‌های قانون-محور (که قضاوت انسانی را hard-code می‌کنند) امکان‌پذیر است؛ به همین دلیل است که فروشنده‌های خدمات امنیتی، به جای این‌که قضاوت انسانی را کاملاً از چرخه حذف کنند، به صورت فزاینده به راهکارهای مبتنی بر هوش مصنوعی روی می‌آورند که انسان‌ها را در این چرخه و راهکار نگه می‌دارد.

    قانون‌گذاران نیز به این رویکرد علاقه دارند، زیرا به دنبال ویژگی‌های انسانی (همچون مسئولیت‌پذیری، قابلیت چشم‌پوشی از اشتباهات ناچیز) و مکانیزم‌هایی هستند که شکست آن‌ها عواقب سنگینی نداشته باشد (به خصوص هنگام کار با فرآیندهای پیچیده، خودکار و جعبه‌ی سیاه).

    برخی از فروشندگان سعی دارند روش‌های یادگیری فعال یا یادگیری تقویتی ارائه دهند که برای غنی‌سازی مدل‌های پایه از تخصص انسانی استفاده و بدین ترتیب پیوندی بین ماشین‌ها و انسان‌ها برقرار می‌کنند. در همین راستا، پژوهشگران نیز سعی دارند به مدل‌های هوش مصنوعی بیاموزند تصمیم‌گیری را به متخصصان انسانی واگذار کنند و از این طریق در حال تقویت و اصلاح تعامل بین انسان-دستگاه هستند.

    استفاده از سخت‌افزارهای پیشرفته

    هنوز واضح نیست که آیا معماری بهینه‌سازی‌شده‌ی تراشه‌ها و پردازشگرها در کنار فناوری‌ها و چارچوب‌های برنامه‌نویسی یا حتی انواع سیستم‌های کامپیوتری، می‌تواند به نیاز محاسباتی رو به رشد هوش مصنوعی پاسخگو باشد یا خیر. برخی از این فناوری‌های بنیادین مختص کاربردهای هوش مصنوعی ساخته شده‌اند و به خوبی بین بخش نرم‌افزاری و سخت‌افزاری ارتباط برقرار می‌کنند؛ این فناوری‌ها، در حال حاضر، بیشتر از همیشه توان انجام محاسبات همزمان، ضرب‌های ماتریسی و پردازش‌های نموداری را دارند.

    علاوه بر این موارد، نمونه‌های فضای ابری که به صورت مشخص و هد‌ف‌دار برای محاسبات هوش مصنوعی ساخته شده‌اند، طرحواره‌های یادگیری یکپارچه شده، و فناوری‌های پیش‌قدم (تراشه‌های نورومورفیک، محاسبات کوآنتومی و غیره) نیز می‌توانند نقش مهمی در این مسیر ایفا کنند. در هر صورت به نظر نمی‌رسد این پیشرفت‌ها به خودی خود نیاز به بهینه‌سازی الگوریتمی (که می‌تواند از بخش سخت‌افزاری پیشی بگیرد) را برآورده کنند. با این حال، باید به نقش حیاتی آن‌ها در مسیر رشد هوش مصنوعی اذعان کرد.

    نقاط قوت حوزه داده

    رویه‌ی قدیم علوم داده، تا به اکنون، مبتنی بر این اصل بوده است که هرچه داده‌ی بیشتری داشته باشیم، بهتر است. اما اکنون به جنبه‌ی منفی مدل‌هایی که نیاز به داده های زیاد دارند نیز آگاه شده‌ایم؛ معایبی که به نظر می‌رسد از مزایای آن پیشی می‌گیرند.

    شرکت‌ها، فروشندگان امنیت سایبری و سایر متخصصان داده دلیل و انگیزه‌ی زیادی دارند تا در جمع‌آوری، ذخیره‌سازی و مصرف داده، راهی منظم‌ در پیش گیرند. همانطور که در این نوشتار توضیح دادیم، یکی از دلایل این امر به امکان ارتقای دقت و حساسیت مدل‌های هوش مصنوعی و همچنین بهبود ملاحظات مربوط به حریم خصوصی برمی‌گردد. سازمان‌هایی که از این رویکرد (رویکردی که بر استفاده از داده های کم تأکید دارد) استقبال می‌کنند و از این نظر برای خود محدودیت‌هایی قائل می‌شوند، در بلندمدت می‌توانند به دستاوردهایی نوآورانه، کاربردی و به‌ صرفه در عرصه‌ی هوش مصنوعی دست یابند.

    منبع: هوشیو

    ai-admin بازدید : 25 یکشنبه 30 آبان 1400 نظرات (0)

    قضیه حد مرکزیدر کانون استنباط آماریقرار دارد که متخصصین علوم داده و تحلیل‌گران داده هر روز با آن سر و کار دارند.

    در مقاله پیش‌رو به مطالعه و بررسی قضیه حد مرکزی و چیستی آن می‌پردازیم؟ دلایل اهمیت آن چیست؟ قضیه حد مرکزی چه تفاوتی با قانون اعداد بزرگدارد؟

    قضیه حد مرکزی چیست؟

    یکی از قضیه‌های مهم و کاربردی در آمار و احتمالات قضیه حد مرکزی است. این قضیه بیان می‌دارد همزمان با افزایش حجم نمونه‌ها، توزیع میانگین (Mean) تعدادی از نمونه‌ها به سمت توزیع گوسی میل می‌کند.

    فرض کنید آزمایشی انجام می‌دهیم و در این آزمایش داده‌هایی به دست می‌آوریم و یا مشاهداتی ثبت می‌کنیم. با تکرار این آزمایش می‌توانیم مشاهده مستقل دیگری به دست آوریم. از تجمیع کلیه این داده‌ها به نمونه‌ای از مشاهدات دست پیدا می‌کنیم.

    اگر میانگین یک نمونه را محاسبه کنیم، این میانگین نزدیک به میانگین توزیع جامعه خواهد بود. این میانگین ممکن است همیشه درست نباشد و خطا داشته باشد. در صورتی‌که نمونه‌های مستقل زیادی داشته باشیم و میانگین آن‌ها را محاسبه کنیم، توزیع آن‌ها، به سمت توزیع گوسی میل می‌کند.

    تمامی آزمایشاتی که انجام می‌دهیم و خروجی آن یک مشاهده است، باید به صورت مستقل انجام شود و روند انجام آن‌ها یکسان باشد. دلیل آن هم این است که مطمئن شویم نمونه‌ از یک جامعه آماری مشخص به دست آمده است . در اصطلاح تخصصی از این شرط با عنوان توزیع نامشخص و یا مجموعه‌ای از گزاره‌های مقایسه‌ای یاد می‌شود.

    دلایل اهمیت قضیه حد مرکزی چیست؟

    در واقع CLT بر مبنای تخمین‌های (برآوردها) ما، توزیع خاصی ترسیم می‌کند. با استفاده از این توزیع می‌توانیم صحت و درستی احتمالات برآوردی خود را بررسی کنیم. برای مثال، فرض کنید می‌خواهیم نتایج انتخابات را پیش‌بینی کنیم.

    فرض کنید نتایج حاصل از یک نظرسنجی‌ نشان می‌دهد که ۳۰% از نمونه‌های آماری (افراد شرکت‌کننده در نظرسنجی) نامزد انتخاباتی A را بر نامزد انتخاباتی B ترجیح می‌دهند. طبیعتاً ما فقط از نمونه کوچکی از کل جمعیت نظرسنجی کرده‌ایم و می‌خواهیم بدانیم آیا می‌شود نتایج این نظرسنجی را به کل جامعه تعمیم داد و در صورتی که امکان تعمیم نتایج به کل جمعیت وجود نداشته باشد، می‌خواهیم بدانیم نتایج حاصل از نظرسنجی ما چقدر خطا دارد.

    در این حالت CLT به ما نشان می‌دهد اگر این نظرسنجی را بارها و بارها تکرار کنیم، توزیع فرضیات بعدی در کل جامعه آماری نرمال خواهد بود.

    در CLT توزیع احتمالات از مرکز به سمت دُم‌ است. به عبارت دیگر، در صورتی‌که نزدیک به مرکز توزیع قرار داشته باشید، حدود دو سوم از نتایج حاصل در فاصله یک انحراف از معیار استاندارد از میانگین قرار می‌گیرند و حتی با تعداد نمونه‌های کمتر می‌توانید مطمئن باشید که نتایج شما قابل تعمیم هستند.

    بیشتر بخوانید

    تغییر مدل مو به وسیله فضای پنهان شبکه عصبی مولد برای انجام ویرایش‌های معنایی

    از سوی دیگر، چنان‌چه در فاصله دم‌های توزیع، کل نتایج حاصل در فاصله پنج انحراف معیار از میانگین قرار داشته باشند حتی اگر حجم نمونه‌هایی که در اختیار دارید، کافی باشد باز هم نمی‌توانید نتایج حاصل از نظرسنجی را به کل جامعه آماری تعمیم دهید.

    چنانچه توزیعی واریانس نامتناهی داشته باشد، CLT عملکرد خوبی ندارد. چنین مواردی به ندرت رخ می‌دهد اما در برخی از زمینه‌ها چنین توزیع‌هایی دور از ذهن نیست.

    قضیه حد مرکزی چه تفاوتی با قانون اعداد بزرگ دارد؟

    معمولاً  افراد مبتدی CLT را با قانون اعداد بزرگ اشتباه می‌گیرند. CLT و LLN با یکدیگر تفاوت دارند و تفاوت کلیدی میان این دو این است که LLN به حجم یک نمونه و CLT به تعداد نمونه‌ها بستگی دارد.

    در واقع LLN بیان می‌دارد میانگین‌های نمونه مشاهدات مستقل و نامشخص، به یک مقدار خاص متمایل است و CLT توزیع اختلاف میان میانگین‌های نمونه و مقدار را ترسیم می‌کند.

    دلایل اهمیت قضیه حد مرکزی در استنباط آماری

    ابزار CLT نقش تعیین‌کننده‌ای در استنباط آماری دارد. CLT نشان می‌دهد برای کاهش خطای نمونه‌گیری، حجم نمونه را تا چه اندازه باید افزایش دهیم. خطای نمونه‌گیری اطلاعاتی راجع به دقت و حاشیه خطای برآوردهای آماری که بر مبنای نمونه‌ها انجام داده‌ایم (برای مثال بر حسب درصد) در اختیار ما می‌گذارد.

    از تجمیع حجم نسبتاً بالایی از متغیرهای تصادفی مستقل، یک نمونه تصادفی ایجاد می‌شود که توزیع آن تقریباً نرمال است.

    در گذر از نمونه به جامعه، احتمال اهمیت بسزایی دارد و به زبان ساده اگر به جای مطالعه کل جامعه آماری، بخشی از آن را مطالعه کنیم و بتوانیم نتایج حاصل از آن را به کل جامعه تعمیم دهیم، از روش‌هایی استفاده کرده‌ایم که موضوع استنباط آماری است. با این توصیفات چگونه می‌توانیم مطمئن شویم روابطی (یا نسبتی) که در یک نمونه مشاهده کرده‌ایم صرفاً بر پایه احتمالات نیست؟

    در همین راستا آزمون‌های معنا‌داری تهیه و تدوین شده‌اند تا معیارهایی معرفی کنند و ما بتوانیم بر مبنای آن‌ها امکان تعمیم نتایج به کل جامعه آماری را بسنجیم. برای مثال، ممکن است فردی متوجه شود رابطه‌ای منفی میان سطح تحصیلات و درآمد وجود دارد. گرچه به اطلاعات بیشتری نیاز است تا اثبات کنیم این نتیجه‌گیری صرفاً بر پایه احتمال نبوده ولی به لحاظ آماری اهمیت آن را هم نمی‌توانیم نادیده بگیریم.

    منظور از توزیع نرمال قضیه حد مرکزی چیست؟

    ابزار CLT توزیع گوسی را نوعی توزیع طبیعی و حدی در نظر می‌گیرد و بسیاری از فرضیه‌های آماری را موجه می‌داند، برای مثال، توزیع نرمال جمله‌های خطا در رگرسیون خطی مستقل از متغیرهای تصادفی زیادی است که واریانس پایین و خطاهای غیرقابل تشخیص دارند و به همین دلیل انتظار می‌رود که توزیع آن نرمال باشد.

    اگر داده‌هایی دارید و نمی‌دانید توزیع آن‌ها به چه صورت است، می‌توانید از CLT استفاده کنید و توزیع آن را نرمال فرض کنید.

    نقاط ضعف قضیه حد مرکزی

    یکی از نقاط ضعف CLT این است که اغلب بدون رفع و بررسی حاشیه خطا مورد استفاده قرار می‌گیرد و این مشکلی است که حوزه مالی مدتی با آن درگیر بوده، در این حوزه فرض بر این بوده که بازده نرمال است، در حالی که دم‌های توزیع کشیده
    بوده؛ آسیب‌هایی این‌گونه توزیع‌ها بیشتر از توزیع‌های نرمال است.

    نقض قضیه حد مرکزی

    زمانی‌که با مجموعه‌ای از متغیرهای تصادفی وابسته، مجموعه‌ای از متغیرهای تصادفی با توزیع نامشخص و یا مجموعه‌ای از متغیرهای تصادفی وابسته با توزیع نامشخص سروکار دارید، CLT عملکرد خوبی ندارد.

    بیشتر بخوانید

    شبکه های حافظه طولانی کوتاه مدت در حال افول‌اند ؛ آیا جایگزینی برایشان وجود دارد؟

    نمونه‌های دیگری از CLT وجود دارد که در آن‌ها لازم نیست هر دو شرط فوق رعایت شود (متغیرهای وابسته و متغیرهایی با توزیع نامشخص) . برای نمونه می‌توان به قضیه لیندبرگ فلراشاره کرد؛ در این قضیه متغیرها حتماً باید مستقل باشند اما نامشخص بودن توزیع متغیرها شرطی اساسی و ضروری نیست.

    آیا در قضیه حد مرکزی فقط میانگین اهمیت دارد؟

    از CLT برای استنباط میانگین استفاده می‌شود. CLT بیان می‌دارد می‌توان برای میانگین (های) یک نمونه بزرگ که واریانس کوچکی دارند، توزیع نرمال در نظر گرفت. اندازه نمونه قبل از برآورد خوب است و بستگی به توزیع دارد، در نتیجه اگر داده پرت نداشته باشیم، می‌توانیم از میانگین نمونه به عنوان نمونه جامعه استفاده کنیم تا احتمال خطا را به دست بیاوریم.

    قضیه حد مرکزی – جزئی از طبیعت

    ابزار CLT موضوعی چالش‌برانگیز است. حتی با وجود این‌که می‌توانیم آزمون‌های زیادی بگیریم و نمونه‌های زیادی بیاوریم، CLT باز هم مبهم است. شاید عجب به نظر برسد که توزیع گوسی یک توزیع حدی است. اما به هر حال بخشی از طبیعت است و باید آن را بپذیریم. از این روی، توزیع گوسی تقریباً شبیه نیروی جاذبه است. هرچند انسان‌ها CLT را اختراع نکرده‌اند ، اما بدون شک آن را اثبات کرده‌اند.

    قضیه حد مرکزی در حل چه مشکلاتی می‌تواند به ما کمک کند؟

    توزیع نرمال مدلی ساده با توزیع متقارن و با یک پیک به دست می‌دهد. برای از بین بردن ناهمسانی واریانس و مقایس‌بندی، نیاز به بازتعریف مقیاس متغیرها داریم. علاوه بر این، CLT در تشخیص تغییرات و بازتعریف متغیرها نیز کاربرد دارد. مقایسه جمعیت‌هایی که بر روی توزیع آن‎ها روش انتقال انجام شده را می‌توان به سادگی و با تجزیه و تحلیل واریانس مدل نرمال انجام داد. واریانس این مدل هنجار در برابر انحراف معیار مقاوم است، اما ناهمسانی واریانس بر نتایج تأثیر می‌گذارد).

    یکی دیگر از کاربردهای رایج توزیع نرمال این است که به عنوان (هنجار) مدل خطا برای بررسی تناسب سایر مدل‌ها استفاده می‌شود. به همین دلیل از مجذورات مدل مورد نظر (مدلی که آزمایش و بررسی می‌کنیم) استفاده می‌کند.

    موارد کاربرد قضیه حد مرکزی در دنیای واقعی

    شاید بتوان گفت CLT پرکاربردترین قضیه در تمامی علوم است. بسیاری از علوم از جمله نجوم، روانشناسی، اقتصاد و غیره به استفاده از این قضیه رغبت دارند. هر وقت دیدید در تلویزیون نتایج حاصل از یک نظرسنجی را با فاصله اطمینان گزارش می‌دهند، مطمئن باشید در این نظرسنجی از قضیه حد مرکزی استفاده شده است.

    در واقع CLT در تمامی نمونه‌ها، نظرسنجی‌ها، آزمایش‌های بالینی، تجزیه و تحلیل‌‌های تجربی، آزمایش تصادفی کنترل‌شده و غیره مورد استفاده قرار می‌گیرد.

    نتیجه‌گیری

    ابزار CLT ابزار قدرتمندی است و صرف نظر از این‌که داده ها از مجموعه‌ توزیع‌ها به دست آمده‌اند یا خیر، چنان‌چه میانگین و واریانس آن‌ها یکسان باشد، می‌توانیم از این قضیه استفاده کنیم.

    ابزار CLT بیان می‌دارد که میانگین نمو‌نه به سوی میانگین جمعیت میل می‌کند و سپس فاصله میان آن‌ها کم می‌شود تا توزیع به سمت نرمال میل کند؛ در این حالت همزمان با افزایش حجم نمونه‌ها، واریانس آن با واریانس جمعیت برابر می‌شود. این موضوع در استفاده از آمار و درک طبیعت اهمیت دارد.

    منبع: هوشیو

    ai-admin بازدید : 24 شنبه 29 آبان 1400 نظرات (0)

    تعدادی از متخصصین هوش مصنوعی در آلمان توانسته‌اند نرم‌افزاری را برنامه‌نویسی کنند که می‌تواند رفتار نژادپرستانه را در ربات‌های هوشمند کشف کند. تجهیز این نرم‌افزار به هوش مصنوعی سبب شده تا بتواند به راحتی هر واژه‌ای در بیان ربات‌ها که جنبه نژادپرستانه داشته باشد را تشخیص دهد.

    یکی از طراحان این برنامه اذعان داشته است: «ربات‌هایی که ما می‌سازیم ممکن است به خاطر کدگذاری ماژول‌های غیراستاندارد در ارائه سرویس محدودیت ایجاد کرده و به تمامی کاربران به طور یکسان خدمات‌دهی نکنند. این موضوع باعث شد تا با کمک هوش مصنوعی از افزایش این نوع واکنش در ربات‌ها جلوگیری کنیم.

    گفتنی است که این نرم‌افزار دارای یک هسته مرکزی اطلاعات است که در آن بالغ بر ۷/۱ میلیون مورد رفتار نژادپرستانه هم از سوی ربات‌ها و هم از سوی انسان‌ها ثبت گردیده است. از طرفی میزان قدرت یادگیری این برنامه محدودیت ندارد و این یعنی با گذر زمان توانایی کنترل و نظارت بر کاربران و ربات‌های هوشمند گوناگونی را به دست می‌آورد».

    برخوردهای نژادپرستانه

    امروزه تعدادی از ربات‌ها توانایی درک برخوردهای نژادپرستانه را ندارند. به بیان دیگر این رفتارهای نادرست انسان است که منشأ یادگیری ربات‌ها شده و باعث بروز رفتارهای نژادپرستانه در آن‌ها می‌شود. به عنوان نمونه در یک مورد اخیر رفتار نژادپرستانه، یک ربات این‌طور اظهار می‌کند که «سفید پوست‌ها از جایگاه اخلاقی بهتری از سیاه پوست‌ها برخوردارند».

    این موضوع باعث شده است تا متخصصان به این نتیجه‌گیری برسند که هر چه زودتر باید شاکله‌های یادگیری ربات‌ها را بازنویسی کنند تا کاربران امکان تحمیل سلیقه خودشان به ربات‌ها را نداشته باشند. چراکه با رشد روزانه حضور ربات‌های دارای هسته هوش مصنوعی، شدت رفتارهای نژادپرستانه نیز به طرز نگران‌کننده‌ای در آینده نزدیک افزایش خواهد داشت.

    بیشتر بخوانید

    رباتی که واکسیناسیون را بدون سوزن انجام می‌دهد!

    بنابراین بدون شک به‌کاربردن نرم‌افزارهای کاربردی که دارای الگوریتم استاندارد و هماهنگ با ارزش‌های اخلاقی باشد، خواهد توانست رابطه بین ربات‌ها و انسان را بهتر کند. گفتنی است که این نرم‌افزار از سوی متخصصین آلمانی در فواصل زمانی کوتاه‌مدت به‌روزرسانی می‌شود تا به سرعت ایرادات آن برطرف گردد.

    جدیدترین اخبار هوش مصنوعی ایران و جهان را با هوشیو دنبال کنید

    منبع: هوشیو

    ai-admin بازدید : 23 پنجشنبه 27 آبان 1400 نظرات (0)

    وقتی تصاویر ناسا از جهان هستی را می‌بینیم، آیا می‌توانیم بگوییم کدام حقیقی است و کدام شبیه‌سازی شده؟ حقیقت این است که ناسا از تصاویر ساختگی، برای آموزش الگوریتم‌های هوش مصنوعی نجومی خود استفاده می‌کند. در ۲۲۵ عکسی که ناسا به تازگی منتشر کرده و شما می‌توانید در «تصویر شماره یک» آن را ببینید، تنها یکی از آن‌ها یک پدیده حقیقی کیهانی را نشان می‌دهد و بقیه به‌وسیله‌ هوش مصنوعی درست شده‌اند.

    به‌تازگی ناسا فاش کرده است، برای آموزش الگوریتم‌های هوش مصنوعی نجومی خود از مجموعه تصاویر فضایی که ساختگی هستند، استفاده می‌کند. از میان تمام آن تصاویر ساختگی، تنها یک تصویر است که به‌راستی از یک رویداد شگفت‌انگیز کیهانی رونمایی می‌کند و باقی ۲۲۴ تصویر آن مجموعه همه شبیه‌سازی هستند. این تصاویر همه توسط هوش مصنوعی ایجاد شده‌اند. آن تنها تصویر حقیقی، به‌وسیله‌ تلسکوپ فضایی هابل گرفته‌‌شده و یکی از زیباترین و نادرترین پدیده‌های میان‌ستاره‌ای را نشان می‌دهد.

    در حقیقت ناسا از یک‌سری الگوریتم‌های خاص و پیشرفته هوش مصنوعی در ابررایانه‌هایش استفاده می‌کند، تا تصاویر حقیقی دیجیتالی که از آسمان شب، توسط تلسکوپ‌های هوشمند روباتیک گرفته شده است را تحلیل کند. آن‌ها این کار را به‌منظور یافتن ستاره‌ها و کهکشان‌های جدید و فهمیدن اندازه‌های خاص نجومی آنها انجام می‌دهند.

    اما برای آنکه این الگوریتم‌ها را بهتر بسنجند، آن‌ها را روی تصاویر ساختگی آزمایش می‌کنند که از جهان‌های غیر واقعی هستند. به همین خاطر هم سخنگوی ناسا اعلام کرده است: چرا می‌خواهیم یک جهان را جعل کنیم؟ تنها به یک دلیل، برای آن‌که جهان‌های حقیقی را بهتر درک کنیم.

    بیشتر بخوانید

    مک دونالد به کمک IBM فروش خود را هوشمند می‌کند

    ارائه چشم‌اندازی زیبا

    آن‌ها مجموعه برجسته‌ای از تصاویر ساختگی به وجود می‌آورند که کارشان تقلید از تصاویر نجومی است؛ تصاویری که ناسا روزانه دریافت می‌کند. هم‌اکنون یک حساب کاربری جدید رباتیک در توییتر، این عکس‌های ساختگی را به‌طور منظم در جهان‌مجازی منتشر می‌کند. این عکس‌ها طیفی از انفجارهای تیره را شامل می‌شوند که یک چشم‌انداز زیبا و واقع‌گرایانه را به نمایش می‌گذارد.

    ساخت نمایه‌های ساختگی از پدیده‌های کیهانی به‌ وسیله هوش مصنوعی، موضوع مقاله‌ای است که «مایکل جی‌ اسمیت» دانشجوی دکترای دانشگاه «هرتفورد شایر» آن را رهبری کرده. روش تحلیل این مقاله بر اساس مدل تولید نمره محور است. این مدل نوعی هوش مصنوعی است که تصاویری با کیفیت بالا تولید می‌کند. آیا تصویرسازی هوش مصنوعی می‌تواند مخاطب را گمراه کند؟ اگر هنوز در تصویر شماره یک به دنبال عکس واقعی می‌گردید، آن را می‌توانید در تصویر شماره دو پیدا کنید. تصویر حقیقی با خط قرمز نشان داده‌شده است.

    این عکسی زیبا، واقعی و شگفت‌انگیز از سحابی خرچنگ است، که به‌وسیله تلسکوپ هابل گرفته‌شده. سحابی‌ها ابرهای بسیار بزرگی از گاز و غبار هستند، که فضای میان‌ستاره‌ای را اشغال می‌کنند و به‌عنوان مهدکودک ستاره‌های جدید عمل می‌کنند. آن‌ها زمانی تشکیل می‌شوند که ستاره‌ای بزرگ‌تر از خورشید ما، شروع به مردن می‌کند و با مرگ خود تبدیل به گاز ستاره‌ای می‌شوند.

    سحابی خرچنگ در فاصله‌ شش‌ هزار و پانصد سال نوری از زمین و در صورت فلکی برج ثور قرار دارد، باقی‌مانده‌ یک ابرنواختر، یک انفجار ستاره‌ای بزرگ است. این سحابی آن‌قدر بزرگ است، که حتی آن را می‌توان با یک تلسکوپ کوچک نیز مشاهده کرد.
    به نقل از ناسا، سحابی خرچنگ، نتیجه‌ یک ابرنواختر است که در سال ۱۰۵۴ بعد از میلاد درست‌شده و در آن عناصر رازآلود بسیاری وجود دارد. این سحابی نخستین بار، بیش از هزار سال قبل توسط یک اخترشناس چینی کشف شده است.

    بیشتر بخوانید

    دومین دوره کارآموزی هوش مصنوعی همتک

    جدیدترین اخبار هوش مصنوعی ایران و جهان را با هوشیو دنبال کنید

    منبع: هوشیو

    ai-admin بازدید : 23 سه شنبه 25 آبان 1400 نظرات (0)

    یک تیم از متخصصان «دانشگاه واترلو» یک ربات ساخته‌اند که بدون احتیاج به سوزن و به طور اتوماتیک می‌تواند واکسیناسیون انجام دهد.

    اغلب شهروندان، در این ایام به دنبال دریافت واکسن کرونا هستند و این روند تا مدتی ادامه خواهد داشت. در این میان، متخصصان «دانشگاه واترلو» یک ربات ساخته‌اند که می‌تواند بدون احتیاج به سوزن و به طور اتوماتیک واکسن تزریق کند و روند واکیسناسیون عمومی را ساده‌تر نماید.

    بیشتر بخوانید

    دلیل مرگ در اثر ابتلا به کرونا کشف شد

    نام این رباب کوبی بوده و در استارت آپ «کوبیونیکس» (Cobionix) طراحی و تولید شده است. این شرکت زیرمجموعه‌ای از «دانشگاه واترلو» است. متخصصان بر این عقیده‌اند که این نخستین بار بود که یک ربات موفق شده است عمل تزریق را بدون احتیاج به سوزن انجام دهد.

    نحوه واکسیناسیون توسط ربات

    به گفته متخصصین این تیم، شهروندان پس از انجام پیش‌ثبت‌نام که به صورت اینترنتی انجام می‌شود، به مرکزی که ربات کوبی در آن مستقر است فراخوانده می‌شوند. در ادامه مراجعان باید یک کارت شناسایی را در مقابل دوربینی که رابط صفحه نمایش لمسی است، قرار ‌دهند. سپس چند حسگر سه بعدی هویت آن‌ها را شناسایی می‌کند.

    بعد از آنکه هویت مراجعه‌کننده تأیید شد، ربات کوبی یک ویال واکسن را از مخزن خود آماده می‌کند. در ادامه یک حسگر لیدار (LiDAR) که بر روی بازوی کوبی تعبیه شده است، به نقشه‌برداری سه بعدی از بدن مراجعه اقدام می‌کند. سپس هسته مرکزی هوش مصنوعی کوبی این نقشه را بررسی و درک می‌کند تا نقطه مناسب تزریق را بیابد. با پیدا شدن نقطه مناسب، ربات ماده واکسن را از طریق روزنه‌‌ای به اندازه تار مو و با فشار بالا به بدن تزریق می‌کند.

    بیشتر بخوانید

    واکسن کووید-۱۹ و نقش هوش مصنوعی در نقل و انتقال محموله‌های آن

    شرکت طراح این ربات تا به اکنون تصمیم گرفته اطلاعات بیشتری درباره این ربات کوبی منتشر نکند.

    بر طبق گفته‌های «تیم لاسول» از مؤسسان کوبیونیکس: کوبی می‌تواند تقریباً تا ۲ سال دیگر وارد بازار کالاهای پزشکی شود. ما در نظر داریم تا با آمدن این ربات شاهد سرعت‌گیری واکسیناسیون و کاهش هزینه‌های مربوط به آن باشیم. علاوه بر آن، از کوبی می‌توان در مناطقی که از پزشکان حرفه‌ای محروم هستند نیز بهره بُرد.

    به نظر شما در چه زمینه‌های دیگری می‌توان از ربات‌ها و خدمات مبتنی بر هوش مصنوعی بهره برد؟

    انواع کاربردهای هوش مصنوعی در صنایع مختلف را در هوشیو بخوانید

    منبع: هوشیو

    ai-admin بازدید : 32 دوشنبه 24 آبان 1400 نظرات (0)

    تشخیص چهره کاربران فیس بوک

     

    به علت احتمال به وجود آمدن مخاطرات اجتماعی، فیس‌بوک سیستم شناسایی چهره‌اش را غیرفعال می‌کند. تشخیص چهره کاربران فیس بوک سبب شده بود تا کاربران این پلتفرم در عکس و ویدئوها به راحتی تشخیص داده شوند.

    یکی از معاونین بخش هوش مصنوعی این شرکت، به نام جروم پزنتی اعلام کرده است: متخصصین در حال تدوین قوانینی هستند تا بتوانیم از این تکنولوژی بهره‌مند شویم. اما در حال حاضر آن جنبه‌هایی از این موضوع که برایمان شفاف نیست، سبب محدودسازی کاربرد این تکنولوژی در پاره‌‎ای از موارد شده است.

    این شرکت زمانی اقدام به غیرفعال کردن تشخیص چهره کاربران فیس بوک از روی پلتفرم خود کرد که دنیای فناوری‌های هوش مصنوعی با چالش سازگاری و ناسازگاری این نوع تکنولوژی با اخلاق دست‌وپنجه نرم می‌کرد. اهمیت موضوع به نحوی بود که بنا بر گفته سخنگوی این شرکت احتمال دارد این تکنولوژی تا دسامبر ۲۰۲۱ به طور در کل جهان حذف شود.

    بیشتر بخوانید:

    بینایی ماشین

    حتی پس از حذف کامل تشخیص چهره کاربران فیس بوک، امکاناتی که می‌توانستند محتوای تصاویر را برای افراد کم‌بینا و یا نابینا شرح دهند نیز اسم کاربران موجود در تصاویر را نمی‌آورد.

    اما فیس‌بوک بهره‌برداری از این تکنولوژی را در سایر پلتفرم‌هایش تأیید می‌کند، زیرا بر این عقیده است که این فناوری می‌تواند ابزار کارآمدی برای شناسایی هویت افراد باشد.

    تشخیص چهره کاربران فیس بوک

    تشخیص چهره کاربران فیس بوک زیر ذره‌بین مسئولان

    این فناوری شرکت فیس‌بوک مدت زیادی است که زیر ذره‌بین مسئولان و نهادهای قانون‌گذار قرار دارد. به نحوی که کمیسیون فدرال تجارت ایالات متحده هنگامی که جریمه‌ای به میزان ۵ میلیارد دلار را به اتهام نقض حریم خصوصی علیه این شرکت تعیین می‌کرد، درباره آینده این فناوری‌های و چالش‌های احتمالی آن نگران بود.

    علاوه بر این موارد، امسال نیز شرکت فیس‌بوک غرامتی به میزان ۶۵۰ میلیون دلار که به دلیل شکایت تعدادی از کاربران در رابطه گردآوری ویژگی‌های بیومتریک بدون اجازه آن‌ها بود پرداخت کرد.

    بیشتر بخوانید

    فیسبوک می‌تواند «خطرناک ترین جنایت آینده» و هوش مصنوعی سازنده‌ی آن را تشخیص دهد

    بسیار از کارشناسان که مخالف این فناوری هستند کاربرد آن را ناقض حریم خصوصی افراد دانسته و مدعی هستند استفاده از این تکنولوژی می‌تواند کنکاش در امور شهروندان را به امری عادی مبدل سازد. از سوی دیگر این تکنولوژی به دلیل کاربردهای امنیتی آن از سوی خرده‌فروشان، کسب و کارها و بیمارستان‌ها طرف‌دارانی دارد.

    مدت‌ها قبل از این مناظرات نیز شرکت IBM کاربرد این فناوری را برای شناسایی چهره افراد کنار گذاشته بود. حتی شرکت‌هایی نظیر مایکروسافت و آمازون نیز ارائه این نوع خدمات به پلیس را تا مدت زمان نامشخصی به حالت تعلیق درآوردند.

    به نظر شما آیا تصمیم حذف این فناوری توسط فیس‌بوک تصمیم درستی است؟

    جدیدترین اخبار هوش مصنوعی ایران و جهان را با هوشیو دنبال کنید.

    منبع: هوشیو

    ai-admin بازدید : 27 یکشنبه 23 آبان 1400 نظرات (0)

    از زمانی که ایده هوش مصنوعی به وجود آمد، همراه با آن این سوال نیز طرح شد که «آیا این فناوری می‌تواند برای انسان خطرآفرین باشد؟» و اکنون یووال نوح هراری روشن‌فکر، تاریخدان و نویسنده در مصاحبه خود با شبکه سی‌بی‌اس از خطر هک مغز انسان توسط این فناوری گفته است.

    این تاریخ‌دان در صحبت‌های خودش به مردم و حاکمان آن‌ها هشدار داده است که در حقیقت باید با پدیده‌ی هوش‌مصنوعی همچون انرژی هسته‌ای برخورد شود. چراکه هوش مصنوعی هم مانند انرژی هسته‌ای و بسیاری از فناوری‌های دیگر هم می‌تواند مفید باشد و هم در دست انسان‌های نادرست می‌تواند برای بشر خطر ایجاد کند.

    یووال هراری می‌گوید: اگر همین حالا برای فراگیری هوش مصنوعی، در سطح بین‌المللی قوانینی سخت در نظر گرفته نشود، در آینده‌ای خیلی نزدیک به مجموعه‌ای از افرادی روبرو می‌شویم که به اصطلاح هک شده‌اند! چرا که با ورود داده‌های درونی انسان‌ها به شبکه‌های جهانی اطلاعات شرکت‌های هوش مصنوعی به راحتی می‌توانند به این اطلاعات دسترسی پیدا کنند و این اطلاعات را به ثروتمندان و قدرتمندان جهان بفروشند.

    بیشتر بخوانید

    ۶G ؛ فناوری که با قدرت مغز انسان برابری کرده و به اتومبیل‌ها در دیدن اطراف خود کمک می‌کند

    او مثال می‌زند: خیلی از مردم ده سال پیش در مواجه با شرکتی مثل فیس‌بوک یا اپلیکیشن اینستاگرام از خود می‌پرسیدند، این شرکت‌ها برای چه این خدمات را مجانی در اختیار بقیه می‌گذارند؟ باید دیوانه شده باشند که چنین کاری می‌کنند. ولی اکنون مشخص شده که این خدمات به منظور دسترسی به اطلاعات خصوصی ما بوده تا با آن تجارت کنند.

    کنترل دنیا با در دست داشتن اطلاعات

    در آینده آن‌هایی که کنترل اطلاعات را در دست دارند، دنیا را نیز کنترل می‌کنند؛ چرا که با پیشرفت هوش‌ مصنوعی، این تکنولوژی در دست قدرتمندان جامعه به آن‌ها این امکان را می‌دهد تا مردم را هر طور که بخواهند هدایت کنند. و به این ترتیب آن‌ها می‌توانند جامعه‌ای بدون هیچ‌کدام از آزادی‌های مدنی بیافرینند.

    تباه‌شهری که هرج‌ومرج بر آن حاکم است و از دید آن‌ها انسان‌ها می‌توانند هک شوند و وقتی هک مغز انسان انجام شده باشد، انسان هک‌شده یک برده‌ بدون اراده آزاد است.

    نویسنده‌ی کتاب انسان خردمند افزود تا دیر نشده کشورهای جهان باید برای جلوگیری از این رویداد ناگوار کاری بکنند.

    آن‌ها باید به صورت جدی برای مقابله با خطر بزرگ هک مغز انسان باهم همکاری داشته باشند و قانون‌گذاران قوانین محکم و استواری برای استفاده از هوش مصنوعی وضع کنند.

    هوش مصنوعی اینجا به تنهایی عنصر مخرب نیست، این رشته هم مانند هر فن‌آوری دیگری بسته به این که چه‌کسی از آن استفاده کند می‌تواند کارکرد خوب و یا بد داشته باشد. مثل تکنولوژی‌های هوافضا یا حتی آهنگری؛ یک آهنگر می‌تواند با دانش خود ابزار کشاورزی یا جنگ‌افزارهای کشنده بسازد. دانش بسته به این که چه کسی از آن استفاده می‌کند می‌تواند مفید یا خطرناک باشد.

    بیشتر بخوانید

    آیا شکاف در هوش مصنوعی و مغز انسان برای بازاریابی مهم است؟

    این‌جا نیز قدرتمندان و اربابان ‌جامعه به‌جای این که از هوش مصنوعی در رشته‌هایی مثل پزشکی، اقتصاد یا نجوم استفاده کنند، به وسیله‌ آن به دیکتاتوری اطلاعات روی‌ می‌آورند و آن‌ها که بیشترین داده‌های کاربران را در اختیار خواهند داشت، زندگی آن‌ها را نیز کنترل خواهند کرد. همین حالا هم شرکت‌های چند ملیتی مثل فیس‌بوک، اپل یا گوگل با در دست گرفتن جهان داده‌ها سعی در کنترل جهان پیرامون ما دارند؛ آن‌ها دنیا را به عنوان جنگلی از اطلاعات می‌بینند و خود را اربابان این جنگل می‌دانند.

    پرده آهنین و پرده سیلیکونی

    اگر در دوره‌ تاریخی جنگ سرد پرده‌ آهنین وجود داشت، اکنون پرده‌ سیلیکونی ساخته شده است و همین باعث شده جنگ سرد دیگری میان ایالات متحده آمریکا و حکومت کمونیستی چین شکل بگیرد. این دو کشور در برابر هم قرار گرفته‌اند و با کمک هوش مصنوعی به مقابله با هم می‌پردازند. اطلاعات ما آیا به آمریکا و کالیفرنیا می‌رود، یا شنژن، پکن و شانگهای؟

    بر اساس هشدارهایی که هراری به مردم و فعالان مدنی می‌دهد، به زودی شاهد تغییرات باورنکردنی خواهیم بود و هوش مصنوعی که بر اساس الگوریتم‌های پیچیده کار می‌کند، به آسانی بر مردم چیره خواهد شد و حتی توان هک مغز انسان را هم خواهد داشت.

    آیا قرار است نتفلیکس به ما بگوید چه چیزی را تماشا کنیم؟ یا آمازون به ما می‌گوید که چه چیزی باید بخریم؟ آیا قرار است در ده، بیست یا سی سال آینده این الگوریتم‌ها برای ما انتخاب کنند که در کدام دانشگاه درس بخوانیم، به چه کاری مشغول شویم، کجا به کار مشغول شویم، چگونه و با چه کسی ازدواج کنیم و یا حتی بدتر از آن، به چه کسی رأی دهیم؟ فراموش نکنیم همین چند سال پیش فیس‌بوک سعی کرد با کنترل اطلاعات کاربرانش نتیجه‌ انتخابات آمریکا را تعیین کند.

    در این دو سالی که گذشت، به خاطر همه‌گیری کرونا شرکت‌های زیادی به جمع‌آوری اطلاعات شخصی افراد و داده‌های جسمی و مربوط به سلامتی آن‌ها پرداخته‌اند. این داده‌ها به آن‌ها می‌گوید که چه اتفاقی درون بدن ما می‌افتد. آن‌ها تا کنون درباره‌ مکان ملاقات‌های ما، کسانی که ملاقاتشان می‌کردیم و فیلم‌هایی که می‌خواستیم ببینیم اطلاعات جمع می‌کردند؛ حالا به عنوان قدم بعدی می‌‌خواهند که به زیر پوست ما نفوذ کنند.

    اهمیت همکاری بین‌المللی

    دربرابر این ستم چه کاری از دست ما برمی‌آید؟ اکنون به آن‌جا رسیده‌ایم که تنها با همکاری بین‌المللی می‌توان از این بن‌بست بیرون رفت؛ هیچ‌کس به تنهایی نمی‌تواند با قدرت هوش مصنوعی بجنگد. از اطلاعات من نباید برای کنترل من استفاده شود. قانون مهم این است که باید نظارت بر شرکت‌ها، دولت‌ها و افراد رده‌بالا افزایش یابد و مهم‌تر از آن این که به هیچ عنوان اجازه ندهیم اطلاعات مردم همه در یک جا جمع شوند؛ چرا که این دیکتاتوری اطلاعات را به وجود خواهد آورد.

    اگر همین حالا قوانین سخت‌گیرانه‌ای وضع نشوند به زودی همه در خطر “هک شدن” قرار خواهند گرفت. در این‌جا هک کردن انسان به این معنی است که او را از خودش بهتر بشناسیم و بر اساس این اطلاعات او را کنترل کنیم. همچون ربات یا ماشینی که از بیرون هک شده و هم‌چون عروسک خیمه‌شب‌بازی کنترل می‌شود.

    بیشتر بخوانید

    آموزش هوش مصنوعی با تقلید از مغز انسان

    البته که هوش مصنوعی جنبه‌های بسیار مثبتی دارد، ولی به شرط این که قانون‌گذاران خردمند برای آن قانون وضع کنند. آینده همان‌طور که می‌تواند تباه‌شهر باشد، آرمان‌شهر نیز می‌تواند باشد. به طور مثال از هوش مصنوعی می‌توان در پزشکی استفاده کرد و موجب شد تا بسیاری از بیماری‌ها و همه‌گیری‌هایشان از بین بروند.

    حال تنها یک سوال مطرح است: چه کسانی بر داده‌های ما نظارت دارند، و چه کسانی برای کنترل آن قانون وضع می‌کنند؟

    این گفتمان در شرایطی انجام می‌شود که ایده‌ اتصال ذهن انسان به شبکه‌ جهانی اطلاعات «اینترنت» از طرف ایلان ماسک، و ایده‌ اینترنت سه بعدی از طرف زاکربرگ مالک شرکت فیس‌بوک مطرح شده و همین هم‌زمانی موجب شده تا این بحث در این روز‌ها داغ‌تر شود.

    منبع: هوشیو

    ai-admin بازدید : 31 شنبه 22 آبان 1400 نظرات (0)

    متخصصین دانشگاه آکسفورد در تحقیقات خود برای کشف دلیل مرگ در اثر ابتلا به کرونا، قسمتی از یک DNA را شناسایی کرده‌اند که خطر مرگ ناشی از ابتلا به ویروس کرونا را تقریباً به دو برابر افزایش می‌دهد.

    به گزارش هوشیو و به نقل از خبرگزاری مهر و ایونینگ استاندارد، LZTFL1 نام علمی ژنی است مانع از تقابل سلول‌های ریه با ویروس کرونا می‌شوند. همچنین، این ژن دارای پتانسیلی است تا ریه را فلج کرده و بدن را به نارسایی تنفسی مبتلا سازد. همین موضوع، اکسیژن‌رسانی به سایر اندام‌ها را با اختلال مواجه می‌کند.

    به بیان دیگر طی این پژوهش دلیل مرگ در اثر ابتلا به کرونا مشخص شد. همچنین کشف شد که چرا برخی دیگر صرفاً یک دوره درمانی را طی می‌کنند.

    کشف نوعی ساختار ژنتیکی

    بر اساس خبرنامه دانشگاه آکسفورد، در مطالعاتی که پیش‌تر درباره یک نوع DNA بر کروموزوم ۳ انجام شده بود، مشخص گردید که خطر مرگ ناشی از کرونا در افراد بالای ۶۵ سال، به دلیل این نوع ساختار ژنتیکی ۲ برابر می‌شود. این در حالی بود که متخصصین وقت هنوز رابطه بین هویت ژنتیکی جدید و شدت خطر مرگ بر اثر کرونا را درک نکرده بودند.

    بیشتر بخوانید

    بکارگیری یادگیری ماشینی برای پیگیری تأثیر کرونا ویروس بر سلامت روان

    سپس دو تن از دانشمندان دانشگاه آکسفورد به نام جیمز دیویس و جیم هیوز بعد از انجام تحقیقاتی بر روی این ژن به کمک تکنولوژی‌های جدید، نتایج آن را در مجله نیچر ژنتیکس به چاپ رساندند.

    این محققان یک هسته هوش مصنوعی را تعلیم دادند تا بتواند حجم بالایی از اطلاعات مربوط به نقاط مختلف بدن را تحلیل کند. بر این طبق فناوری مشخص شد که احتمال تأثیر رادیکال‌های ژنتیکی بر روی سلول‌های ریه بسیار بالا است.

    در ادامه تحقیقات درباره دلیل مرگ در اثر ابتلا به کرونا، دانشمندان با استفاده از تکنولوژی‌های نوین، بر روی DNA در سیگنال ژنتیک متمرکز شدند. دامیان داونز، از مدیران آزمایشگاه در این رابطه اعلام کرده است که: اطلاعات به دست آمده از خلال مطالعات نشان می‌دهد یک ژن ناشناس به نام LZTFL1 مقاومت سلول‌های ریه را از بین می‌برد.

    دانشمندان به این نتیجه رسیدند ژن مورد اشاره که مخاطره بیشتری برای مرگ ناشی از ابتلای به کرونا دارد، مانع از آن می‌شود تا ریه واکنش مناسب را در برابر ویروس کرونا انجام دهد. نکته جالب آن است که این ژن بر روی سیستم ایمنی انسان آثار مخربی ندارد. به همین دلیل است که دانشمند عقیده دارند آن دسته از افراد که دارای این نوع ژن هستند، واکنش مطلوبی در برابر واکسن کرونا خواهند داشت.

    علت وخامت حال بیماران چیست؟

    در این رابطه جیمز دیویس گفته است: خصیصه ژنتیکی که شناسایی کردیم توضیح می‌دهد که علت وخیم شدن حال برخی از افراد پس از ابتلا به کرونا چیست. علاوه بر این، نتایج به دست آمده حاکی از آن است که عکس‌العمل ریه انسان نسبت به کرونا در وضعیت نهایی بیمار نقش تعیین‌کننده‌ای دارد. به بیان دیگر منحصر به فرد بودن این آورده‌های تحقیقاتی ناشی از آن است که بیشتر شیوه‌های درمانی بر روی عکس‌العمل قوای ایمنی بدن در برابر ویروس کرونا تمرکز داشتند و به موضوع عکس‌العمل ریه توجهی نمی‌شد.

    بیشتر بخوانید

    رهایی از ویروس کرونا با هوش مصنوعی

    بر اساس مطالعات عمیق‌تری که در این زمینه انجام شده، مشخص گردیده است که ۶۰ درصد از نژادهای جنوب شرقی آسیا دارای این ژن پُرمخاطره هستند. همچنین، در نژادهای اروپایی این ژن به میزان ۱۵ درصد وجود دارد. در مقایسه با این دو دسته، نژاد آفریقایی‌تبار حدود ۲ درصد از این ژن را در خود دارد.

    در رابطه با این موضوع دیویس گفته است: «البته متغیرهای اقتصادی اجتماعی نیز در میزان آسیب‌پذیری جوامع مختلف در برابر کرونا تأثیر دارد. اگرچه ممکن نیست بتوانیم ساختار ژنتیک انسان را تغییر دهیم، اما تحقیقات مشخص کرده است که افراد با ژنتیک پُرریسک نیز می‌توانند از مزایای واکسن بهره‌مند شوند».

    جدیدترین اخبار هوش مصنوعی ایران و جهان را با هوشیو دنبال کنید

    منبع: هوشیو

    ai-admin بازدید : 30 پنجشنبه 20 آبان 1400 نظرات (0)

    این‌که کدام زبان برنامه‌نویسی را به صورت تخصصی می‌آموزیم در تعیین مسیر شغلی ما نقش بسیار مهمی ایفا می‌کند. در انتخاب این زبان، مهم‌تر از پیش‌زمینه‌ قبلی، توجه به سطح تقاضاست. نکته‌ی دیگری که باید مدنظر قرار داد این است که بدانیم با تخصص در آن زبان چه کارهایی می‌توان انجام داد. به همین دلیل تصمیم گرفتیم طی چندین مقاله، فرصت‌های شغلی موجود برای متخصصان انواع زبان‌های برنامه‌نویسی را معرفی کنیم. در این نوشتار که اولین قسمت از این مجموعه است، در فرصت های شغلی برای متخصصان پایتون صحبت خواهیم کرد.

    تعداد زبان‌های برنامه‌نویسی زیاد است، اما آشنایی با پایتون برای آن‌ دسته افرادی که به مهندسی علاقه‌مندند، درهای زیادی را باز می‌کند. بزرگ‌ترین مزیت پایتون، عمومی بودن آن است؛ بدین معنی که فرصت های شغلی برای متخصصان پایتون زیاد هستند. البته این مسئله یک جنبه‌ی منفی هم دارد و آن سردرگمی بین این انتخاب‌های متعدد است.

    تحلیلگر GIS

    تحلیل GIS (سیستم‌های اطلاعات جغرافیایی)، حوزه‌های تحلیل داده، برنامه‌نویسی و نقشه‌نگاری را در هم ادغام می‌کند. وظیفه‌ی اصلی این متخصصان، تحلیل داده‌های فضایی به کمک نرم‌افزارهای نقشه‌برداری و همچنین، طراحی نقشه‌های دیجیتال بر اساس داده‌های جغرافیایی و داده‌های دیگر است. یادگیری پایتون مهارتی است که با از میان برداشتن زوائد کار و خودکارسازی فرآیند، مدیریت و تحلیل داده را برای کاربران GIS آسان می‌کند. در نتیجه این یکی از فرصت های شغلی برای متخصصان پایتون به حساب می‌آید.

    بیشتر بخوانید

    چگونه به یک متخصص هوش مصنوعی تبدیل شویم؟ راهنمای قدم به قدم برای شغل هوش مصنوعی

    توسعه‌دهنده نرم‌افزار

    یکی از فرصت های شغلی برای متخصصان پایتون این است که توسعه‌دهنده نرم‌افزار شوند. وظایف توسعه‌دهنده‌ نرم‌افزار شامل تشخیص، طراحی، نصب و آزمایش سیستم‌های نرم‌افزاری است که از ابتدا برای شرکت خاصی ساخته شده‌اند. این نرم‌افزارها طیفی گسترده دارند و علاوه بر نرم‌افزارهای داخلی  که برای کمک به کارآیی کسب و کارها طراحی می‌شوند، سیستم‌هایی که به مشتریان بیرونی فروخته می‌شوند را نیز در بر می‌گیرد.

    توسعه‌دهنده‌ها به جز ارائه‌ی سیستم نرم‌افزاری، مسئول نگهداری و به روزرسانی آن نیز هستند تا اطمینان حاصل کنند مشکلات امنیتی آن حل شده و قابلیت کاربرد با دیتابیس‌های جدید را نیز دارد. پایتون از زبان‌های رایج و پرکاربرد دنیای توسعه‌ی نرم‌افزار است. به همین دلیل، تسلط بر آن برای به دست آوردن شغل توسعه‌دهنده نرم‌افزار کلیدی است.

    مهندس تضمین کیفیت

    مهندس تضمین کیفیت یا QA مسئول طراحی آزمایشاتی است که مشکلات نرم‌افزار را قبل از راه‌اندازی مشخص می‌کنند. مهندسان QA هرگونه خطا و مشکل شناسایی شده طی این آزمایشات را تحلیل و برای بازبینی‌های بعدی مستندسازی می‌کنند.

    بیشتر بخوانید

    با پایتون یک برنامه تشخیص گفتار بسازید

    از دیگر وظایف مهندسان QA می‌توان به طراحی و اجرای آزمایشات جدید، گزارش نتایج و همکاری با توسعه‌دهنده‌های نرم‌افزار به منظور حل مشکلات برنامه‌ها اشاره کرد. بسته به ساختار درونی سازمان، این مهندسان می‌توانند سمت مدیریتی و اجرایی در دست داشته باشند. برای در دست داشتن شغل مهندسی تضمین کیفیت، باید بر زبان‌های برنامه‌نویسی همچون پایتون تسلط داشت؛ علاوه بر این، تجربه‌ی گسترده در حوزه‌ی توسعه و آزمایش نرم‌افزار نیز ضروری است.

    توسعه‌دهنده فول استک

    توسعه‌دهنده فول استک کسی است که با back-end و front-end نرم‌افزارها سر و کار دارد. توسعه‌دهنده‌های فول استک باید در زمینه‌های گوناگون از جمله کدنویسی، دیتابیس، طراحی گرافیک و مدیریت UI/UX تخصص داشته باشند تا در کارشان موفق باشند. این متخصصان، به اصطلاح عامه، آچار فرانسه‌ شرکت‌ها هستند که آماده‌اند در هر نقطه‌ای از فرآیند که لازم بود کمک ارائه دهند. در شرح شغل مهندسان فول استک، مهارت‌هایی همچون استفاده از فناوری‌ها و زبان‌های گوناگون به کاررفته در توسعه‌ی نرم‌افزار نیز به چشم می‌خورد. توسعه‌دهنده‌های فول استک نگاهی همه‌جانبه و جامع دارند، چون علاوه بر تجربه‌ی کاربر، کارکرد نرم‌افزارها را نیز مدنظر قرار می‌دهند.

    مهندس یادگیری ماشین

    یکی از فرصت های شغلی برای متخصصان پایتون مهندسی یادگیری ماشین است. مهندس یادگیری ماشین فردی است در حوزه‌ی IT که با تمرکز بر پژوهش، ساخت و طراحی سیستم‌های هوش مصنوعی خودران، سعی در خودکارسازی مدل‌های پیش‌بین دارد.

    بیشتر بخوانید

    مهارت‌های کاربردی برای مهندس یادگیری ماشین و هوش مصنوعی

    مهندسان یادگیری ماشین مسئول طراحی و تولید الگوریتم‌های هوش مصنوعی هستند که پس از آموزش، می‌توانند پیش‌بینی انجام دهند. اگر در حال حاضر به عنوان متخصص یادگیری ماشین فعالیت دارید، به فکر ارتقای مهارت‌هایتان به حوزه‌ی یادگیری عمیق باشید.

    آن‌چه در این نوشتار مرور کردیم تنها چند نمونه از کارهایی هستند که می‌توان با پایتون انجام داد؛ با این حال، به خاطر داشته باشید که تنوع گزینه‌ها فراوان است و روز به روز به تعداد این کاربردها اضافه می‌شود.

    به نظر شما چه شغلی را می‌توان به لیست فرصت های شغلی برای متخصصان پایتون که در این مطلب به آن اشاره شده، اضافه کرد؟

    منبع: هوشیو

    ai-admin بازدید : 38 چهارشنبه 19 آبان 1400 نظرات (0)

    از قدیم گفته‌اند که پرسیدن عیب نیست. اما اکنون این فرصت برای انسان فراهم آمده تا پرسش‌های خود را با استفاده از هوش مصنوعی از کامپیوتر بپرسد. آیا کامپیوتر می‌تواند توصیه‌های درمانی بهتری نسبت به کادر پزشکی ارائه کند و تصمیم های بالینی بهتری بگیرد؟

    گروهی از محققان سلامت روانی اهل کانادا بر این باورند که فناوری یاد شده توان انجام این کار را دارد. مارک لانوزاو از دانشگاه مونترال و کیوا هرانچوک از دانشگاه سنت لارنس کالج اونتاریو مقاله خود را در ژورنال «تحلیل رفتار کاربردی» منتشر کردند. آنها به‌کارگیری هوش مصنوعی برای درمان مشکلات رفتاری را مورد بررسی قرار دادند.

    بیشتر بخوانید

    روانشناسی و هوش مصنوعی چطور با هم در تعامل هستند؟

    لانوزاو به عنوان استادیار دانشگاه مونترال، سرپرستیِ آزمایشگاه تحقیقات رفتاری کاربردی را در دانشکده آموزش روان‌شناسی بر عهده دارد. وی خاطرنشان کرد: «متخصصان پزشکی و آموزشی در اغلب موارد با تاثیرگذاری مداخلات رفتاری مخالفت می‌کنند. عاملی که می‌تواند باعث ارائه شیوه‌های درمانی غیردقیق برای افراد شود.»

    به دنبال روش بهینه برای اتخاذ تصمیم های بالینی

    لانوزاو و هرانچوک، استاد علوم رفتاری و روانشناسی رفتاری در سنت لارنس، داده‌های شبیه‌سازی شده‌ ۱۰۲۴ فردی را که مراحل درمانی را به خاطر مشکلات رفتاری طی می‌کردند، جمع‌آوری کردند. هدف محققان از این کار پیدا کردن روشی بهتر برای اتخاذ تصمیم های بالینی بود.

    آنها نتایج درمانی را در پایان هر مرحله با نتایج یک مدل کامپیوتری مقایسه کردند و از دانشِ پنج تحلیل‌گر رفتاری کمک گرفتند. این مدل به دست دو محقق دانشگاه و با استفاده از یادگیری ماشین ایجاد شده بود. لانوزاو گفت: «حدود %۷۵ از مواقع، پنج متخصص به نتایج یکسانی دست یافتند. مهم‌تر از همه، یادگیری ماشین خطاهای کمتری در مقایسه با متخصصان انسانی داشت.»

    با توجه به اینکه نتایج مثبتی به دست آمده است، محققان اعلام کرده‌اند که گام بعدی این است که مدل‌ها را در قالب یک نرم‌افزار عرضه کنند. در این صورت، نرم‌افزار می‌تواند به طور خودکار به اتخاذ تصمیم های بالینی پرداخته یا بازخوردهای لازم را در خصوص پیشرفت مراحل درمانی ارائه نماید.

    بیشتر بخوانید

    آیا ترکیب هوش مصنوعی و روانشناسی پاسخگوی نیاز بیماران خواهد بود؟

    باید از یادگیری ماشین استفاده کرد تا کار متخصصان درمان آسان‌تر شود؛ و این بدان معنی نیست که فناوری جایگزین متخصصان خواهد شد. فناوری‌های نوظهور باعث می‌شود تا تصمیم‌های درمانی قابل پیش‌بینی و منسجم‌تر باشند.

    لانوزاو بیان کرد: «برای نمونه، پزشکان روزی می‌توانند از فناوری استفاده کنند تا ببینند آیا باید مراحل درمانی افراد مبتلا به اختلال‌هایی از قبیل اوتیسم، اضطراب و افسردگی را متوقف کنند یا کماکان به این روند ادامه دهند. تصمیم‌گیری آموزشی و بالینی فردی یکی از نقاط عطف درمان رفتاری و روان‌شناسی است. ممکن است مطالعات ما گام مثبتی در راستای ارائه گزینه‌های درمانی بهتر برای میلیون‌ها فردی باشد که این نوع خدمات را در سراسر جهان دریافت می‌کنند.»

    انواع کاربردهای هوش مصنوعی در صنایع مختلف را در هوشیو بخوانید

    منبع: هوشیو

    ai-admin بازدید : 35 سه شنبه 18 آبان 1400 نظرات (0)

    شاید بهترین تعریف برای متاورس، «دنیای واقعی مجازی باشد که در آن هر کاری می‌توانید انجام دهید». البته «هر کاری»، قیدی است که مارک زاکربرگ در تعریف کلان پروژه فیس‌بوک تعریف کرده است. به بیان دیگر، با اعلام تغییر نام برند فیس‌بوک به متا، نگاه‌ها بار دیگر به این هوش مصنوعی دوخته شد. در این فاصله کلیدواژه‌های مرتبط با این موضوع چند میلیون بار در موتور جستجوی گوگل سرچ شده و بسیاری می‌خواهند بدانند زاکربرگ این بار با چه ایده‌ای می‌خواهد دنیا را غافلگیر کند.

    تحلیل واژه متاورس

    ابتدا باید خود واژه Metaverse را بررسی کنیم. پیشوند Meta به معنای فراتر است، ریشه این پیشوند یونانی بوده و در کنار Verse که خلاصه شده واژه Universe بوده، به معنای فراتر از جهان است. Universe به معنای جهان واقعی است، جهانی که آن را از طریق حواس پنج‌گانه تجربه می‌کنیم؛ بنابراین بهتر است ترجمه تحت‌اللفظی این واژه را «فراتر از جهان واقعی» بدانیم.

    متاورس به‌مثابه یک کلان پروژه

    متاورس یک کلان پروژه در عرصه هوش مصنوعی است. در واقع اعلامیه زاکربرگ درباره تغییر نام فیس‌بوک به متا، صرفاً یک تغییر برند ساده نبود. بلکه نشان از نوعی جاه‌طلبی علمی نیز داشت که بر طبق آن باید کل کلان پروژه متاورس را در چارچوب هوش مصنوعی فهمید.

    بر طبق این چشم‌انداز، متاورس به معنای توسعه کارکردهای هوش مصنوعی در عرصه تعاملات کاربران است. یکی از نمونه‌های کوچک متاورس، بازی‌های آنلاین گروهی است. شما در این دست از بازی‌ها آواتار مخصوص خود را می‌سازید و می‌توانید در راستای برنامه‌هایی که برای بازی تعریف شده است، به فعالیت بپردازید. این دست از محیط‌های متاورسی به شما امکان حضور در یک محیط مجازی با تعداد مشخصی از فعالیت و سناریوی از پیش تعریف شده را می‌دهد. بسیار خب، حال تصور کنید که بتوانید به‌عنوان یک انسان آزاد، در واقعیت مجازی زندگی کنید. با این ویژگی که قدرت بی‌نهایت اختیار و تصمیم‌گیری را دارید. این همان رؤیای کلان پروژه متاورس فیس‌بوک است که در ۶ آبان ۱۴۰۰ از سوی زاکربرگ از آن رونمایی شد.

    بیشتر بخوانید

    شاهکار بخش هوش مصنوعی فیس بوک: جهشی در حوزه بینایی کامپیوتر

    به گفته زاکربرگ هدف از این پروژه همان است که در ابتدای پروژه فیس‌بوک گفته شد، یعنی «دور هم جمع کردن مردم»؛ بنابراین تغییر برند فیس‌بوک به متا، معنای دقیقی داشت و آن آغاز یک پروژه بزرگ علمی در زمینه هوش مصنوعی برای توسعه تعامل عمیق‌تر کاربران با یکدیگر در فضای مجازی است.

    زاکربرگ به چه می‌اندیشد: از مشاهده کردن تا تجربه کردن

    زاکربرگ با تغییر برند خود نشان داد برنامه‌ریزی برای طراحی و توسعه هوش مصنوعی در زمینه پلتفرم‌ها کهنه شده است. علاوه بر این پلتفرم‌های مشهور نظیر فیس‌بوک، اینستاگرام و واتس‌اَپ در آینده‌ای نه چندان دور همگی به بازوهای کلان پروژه متاورس تبدیل خواهند شد. فرضیه‌های که درباره آینده شبکه‌های اجتماعی نام‌برده وجود دارد، حاکی از آن است که کاربران در جهان متاورس می‌توانند آزادانه زندگی کنند. دقت کنید! شاید این نکته شما را به یاد بازی‌های کامپیوتری بیندازد. به طور مثال بازی Second Life که در آن می‌توانستید عاشق شوید، ازدواج کنید و فرزند بیاورید و به طور خلاصه در کنار زندگی واقعی خود یک زندگی مجازی نیز داشته باشید.

    اما در متاورس‌های کلاسیک، شما به مشاهده کردن مشغول هستید، شرکت در بازی‌های آنلاین، به راحتی مغز شما را فریفته نمی‌کند. اما زمانی که از هدست‌های پیشرفته استفاده می‌کنید، مغز دچار خطای تمایز فضا می‌شود. یعنی نمی‌تواند فضای واقعی را با موقعیت مجازی که در آن قرار دارید را تمیز دهد.

    عوارضی که می‌تواند در پروژه متاورس وجود داشته باشد

    در این بخش نمی‌خواهیم درباره کلان پروژه متاورس بداندیشی کنیم. بدون تردید این پروژه جزو مهم‌ترین برنامه‌های تاریخ بشر برای توسعه هوش مصنوعی به حساب می‌آید، اما تذکر و بررسی عواقب احتمالی آن نیز می‌تواند بهره‌مندی ما را از منافع آن بیشتر کند. در ادامه به بررسی مهم‌ترین عوارض احتمالی آن خواهیم پرداخت.

    • عدم تعهد کارگزاران پروژه متاورس به اخلاق انسانی: یکی از ظرفیت‌های منفی موجود در متاورس که امکان آسیب‌رسانی به جوامع انسانی را دارد، عدم پایبندی برنامه‌ریزان و مجریان این پروژه به اخلاق انسانی است. کاربران در متاورس می‌توانند معرض انواع خشونت‌ها، سوءقصد‌ها، هک شدن و یا دزدیده اطلاعاتشان قرار گیرند. یا حتی گروه‌های خشونت‌طلب و تفرقه‌افکن تشکیل شوند و آموزش‌های مخربی را برای عضوگیری بین نوجوانان راه‌اندازی کنند
    • فریب مغز: مطالعات نشان داده است که مغز انسان می‌تواند نسبت به فضای مجازی واکنش نشان دهد. به این معنا مغز می‌تواند فریب بخورد که در یک فضای واقعی قرار دارد و عواطف متفاوتی را از خود نشان دهد. این موضوع در صورتی که بتواند ترشحات هورمونی لذت‌بخش را به همراه داشته باشد، به احتمال بسیار زیاد کاربران را دچار وابستگی شدید می‌کند. این خطر به ویژه در رابطه با کاربران نوجوان بسیار زیاد است
    • انزوا و وابستگی: یکی از عوارض مستقیم مربوط به وابستگی به شبکه‌های مجازی، انزوا و گوشه‌گیری است. مطالعات انجام شده نشان می‌دهد وابستگی نوجوانان به شبکه‌های اجتماعی در ایالات متحده، مخرب‌تر از مواد مخدر بوده و باعث شده درصد بالایی از نوجوانان احساس انزوا کنند. شخصیت‌های منزوی به شدت وابسته هستند و نمی‌توانند در تعهدات اجتماعی نقش ایفا کنند
    • تقویت گرایش‌های ضداجتماعی: متاورس به کاربران آزادی عمل وسیعی می‌دهد. این یعنی فرد می‌تواند نوعی کاربری به‌دور قیود قانونی و اخلاقی را تجربه کند. در این شرایط کاربر می‌تواند خشونت بدون حد مرزی را تجربه کرده و به نوعی متاورس به محلی برای آموزش او تبدیل می‌شود. مطالعات نشان داده است نوجوانانی که به دوستان خود اقدام به شلیک کرده‌اند، پیش از آن در بازی‌های خشن آنلاین فعالیت داشتند. حتی در این گزارش تأکید شده میزان دقت در هدف‌گیری نوجوانانی که بازی‌های اکشن را تجربه کرده‌اند بسیار زیاد است. این بدان معناست که بازی‌های آنلاین می‌تواند به‌مثابه نوعی آموزش تلقی شده و نحوه خشونت‌ورزی را به کاربران آموزش دهند. مطالعات نشان می‌دهد در نوجوانان، هیجانات ناشی از دوران بلوغ می‌تواند از طریق قرارگیری آن‌ها در معرض این بازی‌ها، به گرایش‌های ضداجتماعی تبدیل شود.

    بیشتر بخوانید

    محیط کار واقعیت مجازی فیسبوک و آشنایی با آن

    زمانی که کلان پروژه متاورس را از نزدیک نگاه می‌کنیم، یک نکته بسیار برجسته است. نکته آن است که زاکربرگ به این می‌اندیشد تا کاربر را از مشاهده کردن واقعیت مجازی به تجربه کردن آن بکشاند. این تجربه، با توجه به بی‌حد و حصر بودن آن بسیار وسوسه‌کننده است. به خصوص برای نوجوانان که غریزه کنجکاوی در آن‌ها بسیار زیاد است، می‌تواند این گروه را در برابر آسیب‌هایی که برای کلان پروژه متاورس برشمردیم صدمه‌پذیر کند.

    متاورس و ساختار جبری اعصاب انسان

    پیچیده‌ترین عضو بدن مغز است. البته پیچیدگی آن مربوط به عدم کشف الگوهای ثابت علمی در تعریف ارتباط با بدن و جایگاه‌شناسی برخی از انگیزش‌های انسانی در آن است. اما نکته قالب توجه بین مغز و متاورس آن است که مغز با اینکه تا به امروز توانسته حجم عظیمی از علوم و معارف بشری را ایجاد کند و زیست انسانی را تعالی ببخشد، اما بر اساس ساختار طبیعی‌اش نمی‌تواند تمایز واقعیت مجازی را از واقعیت بیرونی تفکیک کند.

    به طور مثال زمانی که در حال یک بازی کامپیوتری هستید، به دستور مغز هورمون‌های لذت و هیجان یعنی آدرنالین و دوپامین ترشح می‌شود. در حالی که فعالیت فیزیکی ندارید. حتی گزارشات متعددی از وابستگی و رابطه عاشقانه افراد با آواتارهای مجازی وجود دارد که همگی نشان از عدم توانایی مغز در تمایز هویت واقعی و مجازی است. این فریب مغز ناشی از ساختار جبری آن است. احساسات و عواطف انسانی در گرو میزان ترشحات هورمونی از سوی مغز هستند.

    یعنی در صورتی که مغز تحریک (ولو با هویت‌های مجازی) می‌تواند آثار روانی و فیزیکی ایجاد کند. همچنین، این موضوع سبب شده است تا پیوند مردم در سراسر جهان با آواتارهای مجازی و شبکه‌های اجتماعی روز‌به‌روز افزایش یافته و بر تعداد کاربران شبکه‌های اجتماعی افزوده شود.

    در هر صورت، حقیقت آن است که فریب مغز با توسعه شبکه اجتماعی مبتنی بر تکنولوژی متاورس می‌تواند بیشتر شده و بر گسل ایجاد شده بین مغز و واقعیت جهان بیرون بیفزاید. این در حالی است که کمپانی‌های بزرگ توسعه پلتفرم‌های اجتماعی نظیر متا، باید به نوعی اخلاق حرفه‌ای در کسب و کار خود نیز متعهد شوند.

    بررسی فرضیه فرار هوشمندانه از طریق طرح متاورس

    پس از شناسایی چالش‌های کلان پروژه متاورس برای زیست انسانی، لازم است که نگاهی به اخلاق حرفه‌ای کسب و کار شرکت متا بیندازیم. فرضیه این مقاله آن است که زاکربرگ، پروژه متاورس را برای خنثی کردن عوارض منفی شرکت فیس‌بوک مطرح کرده است. همچنین، می‌خواهد با برجسته‌سازی این پروژه، افکار عمومی را از فعالیت‌های غیرحرفه‌ای یا غیرانسانی مجموعه‌های تحت اختیارش و به طور ویژه فیس‌بوک دور سازد. در ادامه به بررسی شواهد مورد نظر در این زمینه می‌پردازیم.

    شاهد اول: افشاگری‌های فرانسس هاگن علیه زاکربرگ

    در ۱۵ اکتبر امسال، برابر با ۱۳ مهر ۱۴۰۰ هاگن از اعضای کمیته راست‌کرداری مدنی فیس‌بوک، مدارک متعددی را به دادگاه تسلیم کرد که نشان از عدم توجه مدیران فیس‌بوک به محتواهای منتشر شده در این پلتفرم دارد. هاگن مدعی شده است، زاکربرگ انسانی جاه‌طلب است که برای رشد موقعیت خود و وایرال شدن محتواها فیس‌بوک به هر ابزاری متوسل می‌شود. او می‌گوید متأسفانه همین رویه سبب شده است تا محتواهای خشن، تفرقه‌افکنانه و مستجهن در این بستر منتشر شود.

    بیشتر بخوانید

    انقلاب هوش مصنوعی در فیس‌بوک: یک قدم تا شناسایی کامل سخنان نفرت‌انگیز

    او می‌گوید به‌کارگیری هزاران نفر برای توسعه الگوریتم‌های امنیتی هوش مصنوعی فیس‌بوک هیچ فایده‌ای در برنداشته است. زیرا این الگوریتم‌ها صرفاً برای محتواهای انگلیسی زبان حساسیت لازم را به خرج می‌دهند. این در حالی است که سایر محتواها در بستر فیس‌بوک بدون نظارت به حال خود رها شده‌اند. همین موضوع باعث شد تا در سال‌های ۲۰۱۰ تا ۲۰۱۵ شبکه‌های تروریستی از زبان‌های محلی و گویش‌های بعضاً ناآشنا برای تشکیل هسته‌های اطلاعاتی خود استفاده کنند.

    شاهد دوم: انحلال کمیته راست‌کرداری مدنی فیس‌بوک

    در حالی که رفته‌رفته حساسیت اجتماعی بر روی فیس‌بوک و زاکربرگ بیشتر می‌شد، درست یک ماه پس از انتخابات ۲۰۲۰ ایالات متحده، انحلال کمیته راست کرداری مدنی اعلام گردید. جالب است بدانید که وظیفه این کمیته کنترل و نظارت بر استانداردهای اخلاقی و حقوق بشری از سوی فیس‌بوک بود. درست در زمانی که اسناد این کمیته علیه فیس‌بوک در حال انتشار بود، اعلامیه انحلال این کمیته نشان داد که زاکربرگ دارای آن اراده‌ای است که مصالح عمومی را فدای رشد پلتفرم فیس‌بوک کند.

    شاهد سوم: گزارش آوریل ۲۰۲۰

    در آوریل ۲۰۲۰ گزارشی منتشر شد که ثابت کرد فیس‌بوک کمترین نظارت را بر محتواهای غیرانگلیسی زبان دارند. بر اساس این گزارش، علی‌رغم صرف میلیاردها دلار هزینه و به‌کارگیری نیروی انسانی برای تأمین امنیت این پلتفرم، تنها ۱۹ درصد از محتواهای خشونت‌آمیز، ۱۷ درصد محتوای مستهجن و ۱ درصد محتوای قوم‌گرایانه حذف شده است. به طور مثال تنها ۰.۲ از کل محتواهای نفرت‌پراکنی به زبان و گویش‌های افغانستانی (شامل فارسی، اردو، پشتو، ازبکی و ترکمنی) از این بستر حذف شده است. از طرفی، بر روی زبان عربی که جزو پُرکاربردترین زبان تولید محتوا در این بستر به حساب می‌آید هیچ نظارتی وجود ندارد.

    تحلیل: مکانیزم فرار به جلوی مارک زاکربرگ و سرمایه‌گذاری بر روی غریزه خشم

    با در نظر گرفتن سه شاهد مطرح شده می‌توان پیش‌زمینه‌های کلان پروژه متاورس را فهمید. اگرچه متاورس افسانه‌ای است که از دهه ۱۹۹۰ در داستان‌های علمی تخیلی مطرح بود. اما امروز در شرف پیوستن به واقعیت است. بدون تردید این یک گام بزرگ در تاریخچه هوش مصنوعی به حساب می‌آید. اما طرح این موضوع از سوی زاکربرگ، بر اساس سه شاهد گردآوری شده نوعی فرار به جلو تلقی می‌شود. تغییر برند و پیش کشیدن یک ایده‌ای نوآورانه در شرایطی که حساسیت‌ها نسبت به پلتفرم فیس‌بوک در حال افزایش بود، بدون تردید می‌تواند موقعیت تیم زاکربرگ را نزد افکار عمومی تقویت کند.

    از طرفی بر اساس گزارشات منتشر شده درباره نحوه مدیریت محتوا در فیس‌بوک، می‌توان دریافت که مدیران این شرکت از غریزه خشونت انسان به نفع کسب و کارشان استفاده می‌کنند. در واقع آن‌ها با محدود کردن دایره نظارت به زبان انگلیسی، بستری را برای تولید و انتشار محتوای خشن فراهم می‌کند. گزارشات نیز حاکی از تعمدی بودن این رویه در فیس‌بوک است. به ویژه با در نظر گرفتن گلایه‌هایی که اعضای تیم پژوهش فیس‌بوک منتشر کردند و از تقدم منافع شرکت بر منفعت عمومی حکایت دارد.

    باید این موضوع را قدری عمیق‌تر دید. کشفیات روان‌کاوی در یک‌صد سال گذشته ثابت کرده است که انسان به طور طبیعی خشونت‌هایی را در خود بازتولید می‌کند. این خشونت‌ها اگرچه به شکل ساختاری در روان انسان سکنا دارند، اما قوای اجتماعی و ساختارهای فرهنگی اقتصادی می‌توانند زمینه‌های برون‌ریزی خشونت‌های پنهان آدمی را فراهم کنند.

    بیشتر بخوانید

    تشخیص اشیاء با استفاده از الگوریتم DETR فیس‌بوک

    دقیقاً شبیه به غذا خوردن یا تنفس و نیاز جنسی، نیاز به دفع خشونت و مجراهای فرهنگی برای پاک‌سازی انرژی‌های ناشی از این غریزه بسیار حیاتی است. پلتفرم فیس‌بوک، برای وایرال شدن محتوا و افزایش تعاملات کاربران دقیقاً بر روی این غریزه سرمایه‌گذاری کرده است.

    در واقع با کاهش یا نبود نظارت بر محتواهای تولید شده، امکان تولید و انتشار محتواهای خشن به غرایز انسانی قدرت بازتولید را می‌دهد به نحوی که بتواند به ساختارهای اجتماعی و خارج از پلتفرم فیس‌بوک نیز تعمیم پیدا کند. این رخداد را می‌توان در همانندسازی کودکان و نوجوانان با محتواها و کاراکترهایی که در پلتفرم فیس‌بوک وجود دارند مشاهده کرد.

    سخن آخر

    توسعه هوش مصنوعی می‌تواند زمینه را برای برداشتن گام‌های مطمئن‌تر آدمی در علم و دانش فراهم کند. زیرا دقت در محاسبات را افزایش می‌دهد. خطاها را کاهش داده و به‌دور از اشتباهات انسانی، به جای کاربر به تحلیل و محاسبه می‌پردازد؛ بنابراین با تکیه بر هوش مصنوعی می‌توان مدیریت امور انسانی نظیر، ترافیک، اموری شهری، رانندگی، کنترل هواپیما، جت یا فضاپیماها را بدون خطا و با دقت محاسباتی بالا انجام داد.

    اما باید توجه کنید که هوش مصنوعی چالش‌های خاص خود را نیز دارد. به طور مثال در پروژه متاورس امکان رشد خشونت قومی، گروهی و یا فردی، انزوا و جامعه‌ستیزی به عنوان آسیب‌های احتمالی این پروژه بحث شد. اما باید در نظر داشته باشید که برشمردن ایرادات احتمالی این پروژه، به معنای منفی‌بافی درباره توسعه هوش مصنوعی نیست، بلکه ما می‌کوشیم تا با بررسی تمامی آثار و جوانب ممکن متاورس، آگاهانه از هوش مصنوعی منتفع شویم.

    به نظر شما ایده جدیدی که زاکربرگ در سر دارد چیست و چرا نام فیس‌بوک را به متا تغییر داده است؟

    جدیدترین اخبار هوش مصنوعی ایران و جهان را با هوشیو دنبال کنید

    منبع: هوشیو

    ai-admin بازدید : 32 دوشنبه 17 آبان 1400 نظرات (0)

    سرطان روده‌ی بزرگ سومین سرطان شایع و دومین علت مرگ و میر در اثر بیماری سرطان در ایالات متحده است و همین موضوع اهمیت کولونوسکوپی را بیش از پیش کرده است. غربال آسیب‌ها و ضایعات پیش‌سرطانی که با نام آدنوم شناخته می‌شوند، خطر مرگ ناشی از سرطان روده را تا ۶۰ درصد کاهش می‌دهد. با این حال، نرخ تشخیص آدنوم (و همچنین عدم تشخیص آن) از پزشکی به پزشک دیگر تفاوت دارد و می‌تواند بین ۶ تا ۴۱ درصد باشد.

    اخیراً، گروهی تحقیقاتی به رهبری متخصصان مرکز BIDMC پژوهشی انجام داده و نتایج آن را در ژورنال «مطالعه بالینی بیماری‌های کبد، معده و روده» منتشر کرده‌اند. در این پژوهش، امکان کاربرد کامپیوترهای مجهز به هوش مصنوعی در تشخیص آدنوم بررسی شده است. هدف محققان مشخص کردن این نکته بوده که آیا این فناوری می‌تواند با کاهش نرخ خطا، کیفیت کولونوسکوپی را ارتقاء دهد یا خیر.

    کاهش نرخ خطا

    یافته‌ها نشان دادند ادغام تشخیص مجهز به کامپیوتر با روش استاندارد کولونوسکوپی می‌تواند نرخ خطا (عدم تشخیص) را نزدیک به یک سوم کاهش دهد. این اولین بار است که در آمریکا، آزمایشاتی تصادفی نقش یک سیستم تشخیص‌گر مجهز به کامپیوتر مبتنی بر یادگیری عمیق را در کولونوسکوپی بررسی می‌کنند. علاوه بر این، این پروژه را می‌توان یکی از اولین آزمایشات تصادفی دانست که به مطالعه‌ی نقش مداخلات هوش مصنوعی در حوزه‌ی پزشکی پرداخته است.

    دکتر تایلر ام‌برزین، نویسنده‌ی سرپرست این پژوهش که ریاست بخش آندوسکوپی پیشرفته BIDMC را نیز بر عهده دارد، در مورد این مطالعات توضیح می‌دهد: «پژوهش ما نشان داد به کارگیری کامپیوتر در تشخیص پولیپ قابلیت این را دارد که پراکندگی کیفیت در نتایج کلونوسکوپی را جبران کرده و نرخ خطا را برای پزشکان باتجربه کاهش دهد. بر اساس یافته‌ها، هوش مصنوعی می‌تواند به عنوان ابزاری مهم در ارتقای کیفیت غربال سرطان روده‌ی بزرگ ایفای نقش کند و بدین طریق، شیوع این بیماری را در آمریکا کاهش دهد.»

    کلونوسکوپی با تشخیص‌گر مجهز به کامپیوتر

    برزین، استاد دانشکده پزشکی هاروارد، و همکارانش برای اجرای این آزمایش، ۲۲۳ بیمار را مورد مطالعه قرار دادند که بین سال‌های ۲۰۱۹ تا ۲۰۲۰، برای غربال و یا تشخیص سرطان روده‌ی بزرگ به یکی از چهار مرکز پزشکی دانشگاه مراجعه کرده بودند. علاوه بر فرآیند کلونوسکوپی استاندارد دقیق به کمک نور سفید، کلونوسکوپی با تشخیص‌گر مجهز به کامپیوتر نیز روی همه‌ی این افراد انجام شد. مشارکت‌کنندگان به شیوه‌ی تصادفی به دو گروه مساوی تقسیم شدند؛ یک گروه ابتدا تحت کلونوسکوپی استاندارد قرار گرفته و بلافاصله وارد رویه‌ی دوم شدند (هر دو فرآیند توسط یک آندوسکوپیست انجام می‌شد). ترتیب اجرای مداخلات روی گروه دوم برعکس بود.

    بیشتر بخوانید

    کاربرد محتاطانه هوش مصنوعی در تشخیص سرطان

    بر اساس یافته‌ها، نرخ خطا در گروهی که ابتدا کلونوسکوپی مجهز به کامپیوتر انجام داده بودند حدود ۲۰ درصد و در گروه دیگر نزدیک ۳۴ درصد بود؛ تفاوت بین این دو رقم معنی‌دار است.

    دکتر گلیسن براون، عضو واحد مطالعه‌ی بیماری‌های کبد، روده و معده در مرکز BIDMC و نویسنده‌ی اول این مقاله، توضیح می‌دهد: «نتایج این آزمایشات به غیر از غربال سرطان روده‌ی بزرگ کاربردهای دیگری هم دارند. این پژوهش یکی از اولین آزمایشات کنترل‌شده و تصادفی در آمریکاست که نقش فناوری هوش مصنوعی در حوزه‌های پزشکی را مورد بررسی قرار داده است. در سال‌های اخیر، یادگیری عمیق و هوش مصنوعی توجه بسیار زیادی از سمت بخش‌های تجاری و تحقیقاتی به خود جلب کرده‌اند؛ با این حال، ضروری است که با جمع‌آوری داده‌های باکیفیت و دقیق طی آزمایشات بالینی کنترل شده و تصادفی، امنیت و کارآمدی هوش مصنوعی در کاربردهای پزشکی را تضمین کنیم.»

    انواع کاربردهای هوش مصنوعی در صنایع مختلف را در هوشیو بخوانید

    منبع: هوشیو

    ai-admin بازدید : 28 یکشنبه 16 آبان 1400 نظرات (0)

    شهروندان استرالیایی به طور معمول در طول زندگی حرفه‌ای خود پنج تا هفت بار تغییر شغل را تجربه می‌کنند. همزمان با جایگزین شدن نیروی کار با فناوری‌های جدید، انتقال تولید به خارج از کشور، و بروز بحران‌های اقتصادی، احتمال می‌رود این آمار به روند صعودی خود ادامه دهد.

    از بین رفتن مشاغل پدیده جدیدی نیست. اما سرعت این تغییر رو به  افزایش است و آینده کارگران زیادی را تهدید می‌کند.

    فناوری‌های جدید، مشاغل جدید ‌‌ایجاد می‌کنند؛ اما، مهارت‌هایی مورد نیاز آن‌ها همیشه با مهارت‌های مشاغل قدیمی‌ ‌مطابقت ندارد. تغییر شغل موفقیت‌آمیز، مستلزم استفاده حداکثری از مهارت‌های فعلی و کسب مهارت‌های جدید است، اگر فاصله بین مهارت‌ها‌ی قدیمی‌ و جدید بسیار زیاد باشد، تغییر شغل ممکن است به شکست بیانجامد.

    محققان سیستم جدیدی طراحی کرده‌اند که مسیرهای شغلی پیشنهادی را معرفی می‌کند. این سیستم از یادگیری ماشین برای تجزیه و تحلیل بیش از ۸ میلیون آگهی شغلی منتشر شده در اینترنت استفاده می‌کند تا تغییرات شغلی را شناسایی کند که احتمال موفقیت آن‌ها بیشتر است. جزئیات این سیستم در مقاله‌ای در PLOS ONE منتشر شده است.

    بیشتر بخوانید

    بررسی اثرات هوش مصنوعی بر مشاغل ؛ آیا باید احساس خطر کنیم؟

    این سیستم کار خود را با اندازه‌گیری شباهت‌های بین مهارت‌های مورد نیاز هر شغل آغاز می‌کند. ‌‌برای مثال، یک حسابدار می‌تواند به یک تحلیلگر مالی تبدیل شود زیرا مهارت‌های مورد نیاز آن‌ها مشابه است؛ اما تغییر شغل از یک متخصص گفتاردرمانی به یک تحلیلگر مالی دشوار است زیرا مهارت‌های مورد نیاز هر کدام کاملاً متفاوت از دیگری است.

    سیستم، در مرحله بعد، تعداد زیادی از مسیرهای شغلی دنیای واقعی را برای شناسایی جهت تغییر بررسی می‌کند؛ برای مثال، سیستم بررسی می‌کند که آیا معمولاً حسابدارها به تحلیلگر مالی تبدیل می‌شوند یا برعکس.

    در پایان، سیستم می‌تواند آن تغییر شغلی را توصیه کند که احتمال موفقیت بیشتری دارد؛ علاوه بر این سیستم می‌تواند مهارت‌های مورد نیاز برای کار کردن در شغل جدید را مشخص کند.

    اندازه‌گیری تشابه مشاغل

    سیستم جدید با استفاده از روشی موسوم «مزیت نسبی آشکار» (RCA) و آگهی‌های شغلی منتشر شده در اینترنت طی سال‌های ۲۰۱۸ تا ۲۰۲۱، میزان اهمیت مهارت فرد در یک شغل را اندزه می‌گیرد. نگاشت زیر شباهت ۵۰۰ مهارت برتر را نشان می‌دهد. هر نشانگر مبینِ یک مهارت فردی است. این مهارت‌ها بر اساس شباهت آن‌ها به یکدیگر، به ۱۳ خوشه تقسیم و با رنگ‌های مختلف نشان داده شده‌اند.

    زمانی سیستم که تشابه و تفاوت مهارت‌های مختلف را شناخت، می‌تواند تشابه و تفاوت شغل‌های مختلف را بر اساس مهارت‌های مورد نیاز آن‌ها تخمین بزند. تصویر زیر شباهت بین مشاغل استرالیا در سال ۲۰۱۸ را نشان می‌دهد.

    هر نشانگر به منزله‌ی یک شغل مجزا است و رنگ‌ها ریسک جایگزنی شغل با خودکار‌سازی را طی دو دهه آینده نشان می‌دهند (رنگ آبی ریسک پایین و  قرمز ریسک بالا را نشان می‌دهد). مشاغلی که ظاهراً شبیه یکدیگر هستند در کنار هم قرار گرفته‌اند. مشاغل پزشکی و مشاغلی که مستلزم داشتن مهارت بالا هستند، با ریسک خودکارسازی کمتری روبرو هستند.

    نگاشت مسیر شغلی

    سپس، برای ساخت این سیستم پیشنهاد کننده مسیر شغلی، میزان تشابه مشاغل را اندازه‌گیری کرده و آن را با طیف وسیعی از دیگر متغیرهای بازارِ کار، مانند سطح اشتغال و تحصیلات، ترکیب کردیم.

    این سیستم با استفاده از تکنیک‌های یادگیری ماشین و با «یادگیری» از اطلاعات مربوط به تحولات شغلی‌ای که پیش از این روی داده‌اند، تغییرات شغلی آینده را پیش‌بینی می‌کند. این سیستم نه تنها دقت بالایی دارد (یعنی ۷۶%)، بلکه می‌تواند عدم تقارن میسرهای شغلی را نیز در نظر بگیرد. عملکرد سیستم به این صورت اندازه‌گیری می‌شود که سیستم یک مسیر شغلی را پیش‌بینی کرده و آن‌ را با مسیرهای شغلی که در گذشته اتفاق افتاده‌اند، مقایسه می‌کند.

    نگاشت مسیر شغلی کامل، بسیار بزرگ و پیچیده است. در شکل زیر نسخه کوچکی از عملکرد سیستم را تنها با۲۰ شغل مشاهده می‌کنید. در این نگاشت، مشاغل «منبع» در محور افقی و مشاغل «هدف» در محور عمودی نشان داده شده‌اند.

    اگر شغل خاصی را در ردیف پایین انتخاب کنید، مربع‌های آبی رنگ، احتمال [تغییر] مسیر شغلی آن حرفه به شغل‌های سمت راست را نشان می‌دهد. هرچه مربع تیره‌تر باشد، احتمال آن تغییر شغلی بیشتر است.

    توصیه‌های شغلی مبتنی بر هوش مصنوعی

    گاهی اوقات یک حرفه جدید مستلزم یادگیری مهارت‌های جدید است، اما گاهی مهارت‌هایی که باید آموخته شوند نامشخص است. سیستم ما می‌تواند به شناسایی آن‌ها کمک کند. برای مثال، نحوه عملکرد  سیستم را برای شغل «نظافتچی خانگی» بررسی می‌کنیم، شغلی که اشتغال در آن از زمان شیوع کوید ۱۹در استرالیا به شدت کاهش یافته است.

    ابتدا، با کمک نگاشت مسیر شغلی، محتمل‌ترین مسیر شغلی یک نظافتچی خانگی را پیدا می‌کنیم. رنگ‌ها مشاغل را بر اساس وضعیت آن‌ها در طول بحران کوید ۱۹ نشان‌ می‌دهند: مشاغل آبی مشاغل «ضروری» هستند که می‌توانند در زمان قرنطینه به کار خود ادامه دهند و مشاغل قرمز، مشاغل «غیر ضروری» هستند.

    بیشتر بخوانید

    هوش مصنوعی چه تاثیری روی اکوسیستم کسب و کارها می‌گذارد؟

    همانند سمت راست نمودار گردشی زیر (نیمه پایین تصویر)، مشاغل پیشنهادی برتر را مشخص می‌کنیم. این مشاغل بر اساس احتمال تغییر شغلی به صورت نزولی طبقه‌بندی شده‌اند. عرض هر نوارِ نمودار تعداد فرصت‌های شغلی موجود در ازای هر شغل را نشان می‌دهد. رنگ بخش نمایانگر افزایش یا کاهش تقاضا در مقایسه با مدت مشابه سال ۲۰۱۹ (یعنی قبل از همه‌گیری) است.

    شش مسیر شغلی پیشنهادی اول به مشاغل خدمات «غیر ضروری» اختصاص دارد که به طرز حیرت‌آوری کاهش تقاضا را تجربه کرده‌اند. با ‌‌این حال، هفتمین مورد شغل «مراقبت از سالمندان و معلولان» است که در دسته «ضروری» طبقه‌بندی شده و تقاضای آن در ابتدای دوران کرونا به میزان قابل توجهی افزایش یافته است.

    اگر شغلی با تقاضی بالا انتخاب کنید، آینده شغلی بهتری خوهید داشت. به همین دلیل، شغل «مراقبت از سالمندان و افراد معلول» را در نظر می‌گیریم.

    باید چه مهارت‌هایی را برای مشاغل جدید یادبگیریم

    علاوه بر موارد مطرح شده بالا، سیستم جدید می‌تواند مهارت‌هایی را مشخص کند که کارگران برای افزایش شانس موفقیت خود در مسیر شغلی جدید باید آن‌ها را یاد بگیرند. کارگر می تواند با سرمایه‌‌گذاری بر روی یادگیری مهارت‌های ضروری در حرفه جدید و آن دسته از مهارت‌هایی که با مهارت‌هایی حرفه‌ فعلی او فاصله دارند، شروع کند.

    در مورد شغل «نظافتچی خانگی»، مهارت‌های توصیه شده برای تغییر به شغل «مراقبت از سالمندان و معلولان»، شامل مهارت‌های تخصصی مراقبت از بیمار، مانند «بهداشت» است.

    از طرف دیگر، نیازی نیست فرد مهارت‌های بی‌اهمیت یا مهارت‌هایِ مشابه مهارت‌های فعلی را یاد بگیرید. مهارت‌هایی مانند «تجزیه و تحلیل کسب‌وکار» و «امور مالی» برای شغل «مراقبت از سالمندان و معلولان» ضرورتی ندارند؛ بنابراین، نباید در اولویت قرار گیرند. به همین ترتیب، مهارت‌هایی مانند «اتو کردن» و «شستن لباس‌ها» در شغل جدید ضروری هستند، اما به احتمال زیاد «نظافتچی خانگی» از قبل ‌‌این مهارت‌ها را آموخته است (یا می‌تواند به راحتی آن‌ها را بیاموزد).

    مزایای تغییر شغل آسان

    اگرچه آینده کاری کماکان نامشخص است، اما تغییر نیز اجتناب ناپذیر است. فناوری‌های جدید، بحران‌های اقتصادی و عوامل دیگر تقاضاهای کاری را تغییر داده و باعث می‌شود کارگران پیوسته شغل خود را عوض کنند.

    اگر تغییر مسیر شغلی کارا باشد، بهره‌وری افزایش یافته و همه مردم  به یک اندازه نفع می برند. اما اگر مسیر شغلی آهسته پیش‌برود یا به شکست بیانجامد، هزینه‌های گزافی برای مردم و دولت‌ و همچنین کارگری که شغل خود را تغییر می‌دهد به همراه خواهد داشت. روش‌ و سیستمی که در ‌‌اینجا مطرح کردیم می‌تواند دستیابی به‌‌این اهداف را به میزان قابل توجهی بهبود بخشد.

    نظر شما درباره استفاده از این روش برای انتخاب و تغییر شغل چیست؟

    منبع: هوشیو

    ai-admin بازدید : 31 شنبه 15 آبان 1400 نظرات (0)

    بر اساس آخرین گزارش گروهی از متخصصان بین‌المللی که وضعیت هوش مصنوعی را ارزیابی می‌کنند‌‌، این فناوری در مسیر تکامل خود به نقطه عطف مهمی رسیده است.
    پیشرفت‌‌های چشمگیری که در پردازش زبان‌‌ طبیعی، بینایی کامپیوتر و تشخیص الگوها بدست آمده است، از تاثیر روزافزون هوش مصنوعی  بر زندگی روزمره مردم خبر می‌دهد. از جمله این تاثیرها می‌توان به نقش این فناوری در توصیه فیلم به افراد یا ارتقای تشخیص‌‌های پزشکی اشاره کرد.

    علی‌رغم این موفقیت‌ها‌‌، لزوم درک خطرات و معایب سیستم‌های مبتنی بر هوش مصنوعی، از جمله سوگیری‌ الگوریتم‌ها یا استفاده از هوش مصنوعی برای فریبکاری‌های عمدی، و کاهش آنها امری ضروری و فوری است. تیم‌های مختلفِ دانشمندان کامپیوتر، متخصصان علوم اجتماعی و حقوق باید دست به دست یکدیگر دهند تا این مشکلات و معایب به حداقل برسد.

    این نتایج از گزارشی با عنوان «انباشت قدرت و انباشت طوفان: گزارش کمیته مطالعات صد ساله هوش مصنوعی موسوم به AI100 (سال ۲۰۲۱)» اتخاذ شده ‌است. گروهی از متخصصان علوم رایانه‌‌، سیاست‌گذاری‌ عمومی‌‌، روانشناسی‌‌، جامعه شناسی و سایر رشته‌‌ها گرد‌هم آمده و این گزارش را تدوین کرده‌اند.

    این پروژه‌ی در حال اجرا یکی از پروژ‌های موسسه هوش مصنوعی انسان محور دانشگاه استنفورد بوده و هدف آن نظارت بر پیشرفت‌های هوش مصنوعی و هدایت پیشرفت‌های آتی این حوزه است. این گزارش جدید که دومین گزارش منتشر شده از پروژه AI100 است‌‌، تحولات هوش مصنوعی را بین سال‌های ۲۰۱۶ و ۲۰۲۱ ارزیابی می‌کند.

    سرپرست گروه ارزیابی می‌گوید…

    مایکل لیتمن، استاد علوم رایانه از دانشگاه براون و سرپرست این گروه پژوهشی، در این باره‌‌ ‌‌می‌گوید: «طی پنج سال گذشته‌‌، هوش مصنوعی که بیشتر به آزمایشگاه‌‌های تحقیقاتی یا سایر محیط‌‌های کنترل‌شده محدود بود، به فناوری‌ای بسیار تاثیر‌گذار در جامعه ارتقاء یافته است.

    این پیشرفت واقعاً هیجان انگیز است‌‌ زیرا این فناوری کارهای بی‌نظری انجام‌‌ ‌‌می‌دهد، کارهایی که پنج یا ۱۰ سال پیش‌‌ غیر قابل تصور بودند. اما در عین حال‌‌، این حوزه با تاثیرات اجتماعی خود کنار آمده است و معتقدم مرحله بعدی دست‌یابی به راهکارهایی برای افزایش مزایای هوش مصنوعی و در عین حال به حداقل رساندن معایب آن است».

    این گزارش که در شانزدهم سپتامبر ۲۰۲۱ منتشر شده است، به ۱۴ سوال مطرح شده در زمینه‌های مهم توسعه هوش مصنوعی  پاسخ می‌دهد. کمیته دائمی AI100 که متشکل از گروه مشهوری از رهبران هوش مصنوعی است، این سوالات را مطرح کرده و سپس هیئتی ۱۷ نفری از محققان و متخصصان این حوزه سعی کردند به این سوالات پاسخ دهند.

    برخی از سوالات این مجموعه شامل «مهمترین پیشرفت‌های هوش مصنوعی کدامند؟» و «چالش‌های جدی و حل‌نشده کدامند؟» می‌شود. دیگر سوالات به ریسک‌ها و خطرات اصلی هوش مصنوعی‌، تأثیرات آن بر جامعه، درک عمومی آن و آینده این حوزه می‌پردازند.

    گزارش تاثیرات هوش مصنوعی

    اگرچه طی چند سال گذشته گزارش‌‌های بسیاری در زمینه تأثیرات هوش مصنوعی نوشته شده است‌‌، اما طبق توضیحات پیتر استون، استاد علوم کامپیوترِ دانشگاه تگزاس در آستین، گزارش AI100 از این جهت منحصر به فرد است که از یک طرف، خودی‌های هوش مصنوعی آن را به رشته تحریر در آورده‌اند، یعنی متخصصانی که الگوریتم‌‌های هوش مصنوعی را ایجاد‌ کرده یا تأثیر آنها را بر جامعه اصلی‌ترین رکن فعالیت حرفه‌ای خود قلمداد می‌کنند، و از طرف دیگر، این گزارش بخشی از یک پژوهش در حال اجرای طولانی مدت، به قدمت یک قرن، است.

    بیشتر بخوانید

    موانع توسعه هوش مصنوعی: از این 5 مورد غافل نشوید

    این مدیر اجرایی Sony AI America و دبیر کمیته دائمی ‌AI100، معتقد است: «گزارش ۲۰۲۱ از این جهت حائز اهمیت است که با اظهار نظرِ کارشناسان در مورد تحولات پنج سال گذشته‌‌، به ارتباط تنگاتنگ این وقایع با گزارش ۲۰۱۶ پرداخته و جنبه دراز مدت AI100 را پررنگ می‌کند. این گزارش با پاسخگویی به مجموعه‌ای از سوالات می‌تواند الگویی بی‌بدیل برای گروه‌های پژوهشی آینده تدوین کند. انتظار می‌رود دانشمندان طی بازه زمانی پنج ساله به ارزیابی این سوالات بپردازند».

    گامی بزرگ

    اریک هورویتز‌‌، افسر ارشد علمی‌ مایکروسافت و هم‌بنیانگذار پژوهش صدساله هوش مصنوعی‌‌، نیز کارِ این گروه پژوهشی را ستوده و اذعان می‌کند که بینش مشترک‌‌ گروه‌های مختلف متخصصان هوش مصنوعی در مورد این گزارش مهم او را تحت تاثیر قرار داده است: «گزارش ۲۰۲۱  گامی بزرگ در جهت توصیف وضعیت فعلی و آینده هوش مصنوعی است. این گزارش شامل مواردی از قبیل ارزیابی گستره فعلی ادراک بشر از هوش مصنوعی و ارائه راهکارهایی در خصوص فرصت‌‌ها و چالش‌‌های اصلی پیش رو پیرامون تأثیرات هوش مصنوعی بر مردم و جامعه می‌شود».

    به لحاظ پیشرفت‌‌های هوش مصنوعی‌‌، این گروه پیشرفت قابل ملاحظه‌ای در حوزه‌های فرعی هوش مصنوعی‌‌، از جمله پردازش زبان‌‌ و گفتار، بینایی کامپیوتر و سایر حوزه‌ها، گزارش کرده‌ است. بسیاری از این پیشرفت‌‌ها ناشی از توسعه تکنیک‌‌های یادگیری ماشین‌‌، به ویژه سیستم‌‌های یادگیری عمیق است که در سال‌‌های اخیر از محیط دانشگاهی به کاربردهای روزمره ارتقاء یافته است.

    برای مثال‌‌، در حوزه پردازش زبان سیستم‌‌های مبتنی بر هوش مصنوعی فعلی نه تنها‌‌ ‌‌می‌توانند کلمات را تشخیص دهند‌‌، بلکه می‌توانند کاربرد دستوری آن کلمه و همچنین تغییر معنی آن در بافت‌های مختلف را بفهمند. این امر منجر به بهبود جست‌وجوی تحت وب، نرم‌افزارهای متنی پیش‌بینی‌کننده‌‌، چت بات‌‌ها و دیگر موارد شده است. برخی از این سیستم‌‌ها در حال حاضر این قابلیت را دارند تا متن‌های اصیلی تولید کنند که تشخیص آن‌ها از متن‌هایی که انسان نوشته است، دشوار است.

    طبق ارزیابی، در دیگر حوزه‌ها نیز‌‌، سیستم‌‌های هوش مصنوعی می‌توانند با دقت بسیار بالایی سرطان و دیگر بیماری‌ها را در حد یک متخصص تشخیص‌‌ ‌‌دهند.

    از طرف دیگر، اگرچه اتومبیل‌‌های خودران علی‌رغم وعده‌ها، هنوز به طور گسترده مورد استفاده قرار نگرفته‌اند، اما سیستم‌‌های هوش مصنوعی دستیار رانندگی، مانند هشدار خروج از خطوط Lane Departure Warning یا کنترل پیمایش سازگار adaptive cruise control، از جمله تجهیزات استاندارد اکثر خودروهای جدید به شمار می‌آیند.

    ناچیز انگاری پیشرفت‌ها

    طبق توضیحات لیتمن‌‌، ناظران خارج از حوزه هوش مصنوعی ممکن است برخی از پیشرفت‌‌های اخیر این حوزه را ناچیز انگارند، اما این پیشرفت‌ها منعکس‌کننده گام‌‌هایی شگرفی در فناوری‌‌های هوش مصنوعی به شمار می‌آیند. برای نمونه می‌توان به استفاده از تصاویر پس‌زمینه در ویدئو کنفرانس‌‌ها اشاره کرد. این قابلیت در دوران همه‌گیری کوید ۱۹ به بخش جدانشدنی دورکاری بسیاری از افراد تبدیل شده است.

    بیشتر بخوانید

    اوراکل ؛ نرم‌افزار بازاریابی دیجیتال جدید مبتنی بر هوش مصنوعی

    لیتمن در ادامه توضیح می‌دهد: «برای اینکه سیستم فرد را بر روی عکس پس‌زمینه قرار دهد‌‌، لازم است ابتدا او را از مناظر پشت سرش جدا کند (تشخیص تصویر فرد بر روی پس‌زمینه تنها در میان مجموعه‌ای از پیکسل‌‌ها، کار آسانی نیست). اگرچه قابلیت تشخیص پیش‌زمینه از پس‌زمینه پنج سال پیش در آزمایشگاه امکان پذیر بوده است، اما به طور قطع قابلیتی که اکنون در تمام رایانه‌ها، به طور آنی و با نرخ فریم بالا امکان پذیر است، پیشرفت بسیار چشمگیری محسوب می‌شود».

    البته پیش‌بینی این گروه در مورد ریسک‌ها و خطرات هوش مصنوعی‌‌ پادآرمان‌شهری نیست که در آن اَبَرهوشمند جهان را تحت کنترل خود درآورده باشد. به گزارش این گروه، خطرات واقعی هوش مصنوعی کمی‌ظریف‌تر، اما به همان اندازه نگران‌کننده هستند.

    ارزیابی خطرات هوش مصنوعی

    برخی خطرات مطرح شده در گزارش ارزیابی این گروه ناشی از سوءاستفاده عمدی از هوش مصنوعی است. منظور تصاویر و ویدئوهای جعل‌عمیق است که برای انتشار اطلاعات غلط یا خدشه‌دار نمودن اعتبار افراد استفاده می‌شوند یا ربات‌‌های آنلاینی که برای دستکاری گفتمان و نظرات عمومی به کار می‌روند. از طرف دیگر، این برداشت در اذهان عمومی نقش بسته است که تصمیم‌گیری هوش مصنوعی به شکلی بی‌طرفانه و بدون سوگیری انجام می‌شود».

    این برداشت به ویژه در حوزه‌هایی مانند اجرای قانون یا بهداشت و درمان‌‌ خطراتی را به همراه دارد. در حوزه قانون، سیستم‌‌های پیش‌بینی جرم و جنایت بر گروه‌های رنگین پوست تأثیر منفی‌ گذاشته و در حوزه بهداشت و درمان، سوگیری‌‌های نژادی تعبیه شده در الگوریتم‌‌های بیمه‌ ‌‌می‌تواند دسترسی افراد به مراقبت‌‌های مناسب را تحت تأثیر قرار دهد‌‌.

    با افزایش کاربردهای هوش مصنوعی‌‌، این مشکلات گسترده‌تر‌ خواهند شد. به گفته لیتمن‌‌، خبر خوب این است که دانشمندان حوزه هوش مصنوعی این خطرات را جدی گرفته و با کمکِ متخصصان حوزه‌های روانشناسی‌‌، سیاست‌گذاری‌های عمو‌‌می ‌و سایر حوزه‌ها فعالانه به دنبال راهی برای کاهش آنها هستند. ساختار گروه تدوین‌کننده این گزارش خود منعکس‌کننده وسیع‌تر شدن گستره هوش مصنوعی است.

    لیتمن  می‌گوید: «تقریباً نیمی از اعضای تشکیل‌دهنده این گروه از دانشمندان علوم اجتماعی و نیمی‌ از متخصصان علوم کامپیوتر هستند و از اینکه می‌بینم دانش متخصصان علوم اجتماعی در مورد هوش مصنوعی بسیار زیاد است، بسیار خوشحالم. در حال حاضر، افرادی هستند که در حوزه‌‌های مختلف فعالیت ‌‌می‌کنند، افرادی که در واقع متخصصان هوش مصنوعی محسوب‌‌ ‌‌می‌شوند. این روند خوبی است».

    این گروه اذعان در ادامه گزارش ارزیابی خود می‌کند که دولت‌‌ها‌‌، دانشگاهیان و صنعت، همه باید برای تکامل هوش مصنوعی در جهتی سازنده گام بردارند.

    نظر شما در خصوص پیشرفت‌های هوش مصنوعی و همچنین خطرات توسعه این فناوری چیست؟

    جدیدترین اخبار هوش مصنوعی ایران و جهان را با هوشیو دنبال کنید

    منبع: هوشیو

    ai-admin بازدید : 37 پنجشنبه 13 آبان 1400 نظرات (0)

    در ماه دسامبر گذشته پنلی با حضور برخی از دانشمندان هوش مصنوعی برگزار شد تا در مورد آینده، انسان‌ها و هوش مصنوعی بحث و تبادل‌نظر شود. در این پنل سؤالاتی مطرح شد ازجمله اینکه چگونه هوش مصنوعی منجر به دگرگون کردن اساسی تمام جنبه‌های تجربه انسانی ما می‌شود؟ چگونه ما به‌عنوان یک گونه با هوش مصنوعی تعامل داریم و پیامدهای هوش مصنوعی و پیشرفت جهان بدون تأمل جدی در نوع دنیایی که می‌خواهیم برای تمدن‌های آینده بسازیم چیست؟

    در این نشست Danny Lange دانشمند ارشد داده در آمازون و اوبر و Beena Ammanath، مدیر اجرایی موسسه AI Deloitte مهمان جان کویتسیر بودند.

    یکی از شرکت‌کنندگان این نشست می‌گوید: این پنل جایی بود برای به اشتراک‌گذاری دیدگاه‌ها، تجربیات، نگرانی‌ها و امیدهای ما در مورد سال ۲۰۲۱ تا با نگاه و بینشی عمیق‌تر به آینده‌ای که می‌خواهیم ایجاد کنیم بیندیشیم، آینده‌ای که در آن هوش مصنوعی مسئولانه به کار گرفته می‌شود و از آن برای مقاصد انسانی استفاده می‌گردد.

    ما اینجا برای مبارزه با Covid-19 گرد هم آمده‌ایم و هوش مصنوعی یک عامل اصلی برای تولید واکسن در بازار در بازه‌های زمانی تحقیق و توسعه آزمایش بی‌سابقه‌ای برای ریشه‌کن کردن این ویروس است. هوش مصنوعی به ما کمک می‌کند تا به یک جامعه جهانی تعاملی‌تر برگردیم؛ جایی که بتوانیم آزادانه سفر کنیم، از رستوران‌های موردعلاقه‌مان بازدید کنیم و با دسترسی بیشتر به فروشگاه‌های محلی خرید کنیم. این یک مثال عالی برای استفاده خوب از هوش مصنوعی است.

    با این حال، پیامدهای هوش مصنوعی امروز در مجموعه داده‌های بزرگ جهانی مملو از نابرابری‌ها، الزامات و تعصبات مبتکران خود است که تأثیر مستقیمی بر چگونگی هدایت این فناوری به اطلاعات، ادراک و عملکرد انسان دارد.

    اخلاق هوش مصنوعی

    همان‌طور که هوش مصنوعی جامعه را به سمت مرحله بعدی تکامل انسان هدایت می‌کند، بر ما واضح می‌شود که باید دانش خود را در مورد اخلاق هوش مصنوعی به‌شدت افزایش دهیم و در مورد آینده دنیایی که می‌خواهیم ایجاد کنیم تأمل ‌کنیم، در غیر این صورت، ما مدل‌های هوش مصنوعی ایجاد خواهیم کرد که مطابق با ارزش‌های ما نیستند.

    بیشتر بخوانید

    هوش مصنوعی می‌تواند سرعت تشخیص سکته را افزایش دهد

    آیا ما می‌توانیم یک هوش مصنوعی ایجاد کنیم که بدون اینکه تحت تأثیر تعصبات سازندگانش قرار بگیرد به انسان‌ها خدمت کند و یا هوش مصنوعی جدیدترین و قدرتمندترین ابزار برای تداوم نژادپرستی و نابرابری خواهد شد؟ کدام سناریو اتفاق خواهد افتاد؟

    موارد مهم

    نتیجه مباحث مطرح‌شده در این نشست بر اهمیت موارد زیر تأکید داشت:

    ۱- اطمینان از این موضوع که حد و حدود، فرایندها و کنترل‌ها به‌درستی به کار گرفته می‌شوند تا یک استراتژی هوش مصنوعی مؤثر و کارآمد توسعه یابد. در این مسیر باید تمرکز بر نیاز به پایداری به‌منظور هدایت روش‌های تصمیم‌گیری مطمئن باشد.

    ۲- آموزش و توانمندسازی همه کارمندان برای درک روش‌های افزایش ارزش هوش مصنوعی و همچنین متعادل‌سازی همه مواردی که می‌توانند با هوش مصنوعی اشتباه پیش بروند ضروری است.

    ۳- قدردانی از اینکه تکامل، چگونه نسل بشر و رشد نمایی ردپای دیجیتالی ما را تنظیم کرده است. هوش مصنوعی باعث می‌شود حضور دیجیتالی ما و هر تصمیم و کلیک ما قابل‌مشاهده باشد در نتیجه هویت دیجیتالی‌مان به حضور ما در مقیاس جهانی کمک می‌کند. دنی لانگ تأکید می‌کند در عصر حاضر دیگر ناشناسی وجود ندارد بنابراین چارچوب‌های نظارتی و شیوه‌های مدیریت ریسک ضروری هستند. دکتر سیندی گوردون می‌گوید: نیاز به تسریع چارچوب‌های اخلاقی هوش مصنوعی و آموزش مدیران‌عامل و مدیران هیئت‌مدیره یک موضوع اساسی است.

    ۴- هوش مصنوعی مسئول و قابل‌اعتماد یک ضرورت تجاری است. الگوریتم‌های هوش مصنوعی از الگوها و از طریق تعامل یاد می‌گیرند، بنابراین باید مراقب باشیم که پیامدهای هوش مصنوعی و جنبه‌های آسیب‌رسان آن نتوانند تبدیل به یک پارادایم غالب شوند.

    بیشتر بخوانید

    با پایتون یک برنامه تشخیص گفتار بسازید

    به نظر ما هوش مصنوعی چطور و در چه زمینه‌هایی می‌تواند تجربیات زندگی انسان‌ها را دگرگون کند؟

    انواع کاربردهای هوش مصنوعی در صنایع مختلف را در هوشیو بخوانید.

    منبع: هوشیو

    ai-admin بازدید : 27 سه شنبه 11 آبان 1400 نظرات (0)

    اوراکل از سیستم جدید مجهز به هوش مصنوعی رونمایی کرده تا شرکت‌ها فعالیت‌ها و کمپین‌های بازاریابی دیجیتال را به شکل موثرتری خودکارسازی نمایند. کارشناسان نرم‌افزار با این هدف دست به توسعه‌ این سیستم زده‌اند که بتوانند بخش اعظمی از بازار نرم‌افزارهای ابری را از مواردی نظیر اَدوبی و Salesforce گرفته و به خود اختصاص دهند. در صورتی که فرایند عرضه‌ی سیستم بازاریابی جدید اوراکل به پایان برسد، امکان ارتقای محصولات بازاریابی B2B فراهم خواهد شد.

    این محصول از هوش مصنوعی برای خودکارسازی فرایندهایی از قبیل ایجاد کمپین‌های بازاریابی و بررسی دقیق داده ها استفاده خواهد کرد. لذا این احتمال به خوبی بررسی می‌شود که افراد تا چه اندازه با ایمیل‌ها و تبلیغات به تعامل می‌پردازند. می‌توان از اطلاعات نهایی برای تعیین این احتمال استفاده کرد که چه تعداد از کاربران این محصول را خریداری خواهند کرد. در این صورت، تیم فروش قادر خواهد بود تا منابع داده را به دقت زیر نظر گرفته و بکار گیرد. در ضمن، این سیستم می‌تواند اطلاعات تماس را به شکل دقیق‌تری در اختیار دپارتمان‌های مربوطه قرار دهد.

    فروش دیجیتال

    داده‌ها که از منابع گوناگونی به دست می‌آیند، بخش بزرگی از فرایند عملیات سیستم بازاریابی Fusion هستند. از جمله این منابع می‌توان به لیست ارتباط ایمیلی و مشتریان اوراکل اشاره کرد که به طور مستقیم از سیستم استفاده می‌کنند. اوراکل انبوهی از داده‌های شخص ثالث جمع‌آوری کرده است. از این رو، با تاریخچه کاری طولانی خود در حوزه پایگاه داده، موفق شده تا در تبلیغات دیجیتال به دستاوردهای ارزنده‌ای نائل آید.

    بیشتر بخوانید

    هوش مصنوعی می‌تواند سرعت تشخیص سکته را افزایش دهد

    فروش دیجیتال با رشد سریعی همراه بوده است. به ویژه از زمانی که بیماری‌های همه‌گیر کرونا در مقیاس جهانی شیوع یافت. در واقع، %۶۴ از کسب‌ و کارهای B2B اعلام کرده‌اند که قصد دارند تعداد فروشندگان ترکیبی (هیبرید) را در طی شش ماه آینده افزایش دهند. فروشندگان حرفه‌ای از روش‌های گوناگونی برای تعامل با مشتریان استفاده می‌کنند که از جمله آنها می‌توان به ویدئو، تلفن، نرم‌افزار و دیدارهای گاه به گاهِ حضوری اشاره کرد. این کارها با افزایش میزان تقاضا نیز ارتباط دارد.

    البته مشکلاتی نیز بر سر راه وجود دارد. بر اساس گزارش‌ها، %۸۵ از بازاریاب‌های B2B اعلام کرده‌اند که نسل جوانان امروزی به هدف بازاریابی محتوای مهمی برایشان به حساب می‌آیند. با این حال، تنها ۵ الی %۱۰ از این نسل به طور موفقیت‌آمیز به بازاریاب تبدیل می‌شوند زیرا فقط %۵۶ از شرکت‌های B2B این متخصصان کسب و کار را پیش از حضورشان در تیم فروش تایید می‌کنند.

    راب کلیمو برای سالیان متمادی به عنوان روزنامه‌نگار حوزه فناوری به فعالیت پرداخته است. پیش از اینکه اینترنت در سراسر جهان مورد استفاده قرار گیرد، وی مجله‌های گوناگونی را چاپ می‌کرده است. راب از زمانی که تمامی فعالیت‌های خود را به طور دیجیتال داده، برای چندین سال در بخش نوآوری شرکت مایکروسافت به ایفای نقش پرداخته است. وی محتوای بسیاری برای طیف وسیعی از شرکت‌ها تولید کرده است.

    جدیدترین اخبار هوش مصنوعی ایران و جهان را با هوشیو دنبال کنید

    منبع: هوشیو

    ai-admin بازدید : 26 دوشنبه 10 آبان 1400 نظرات (0)

    سازمان اطلاعات کره جنوبی مدعی شده با استفاده از فناوری هوش مصنوعی متوجه شدند که دلیل لاغری کیم جونگ اون، رهبر کره شمالی، تناسب اندام و حفظ سلامتی بوده است.

    به گزارش هوشیو و به نقل از خبرگزاری شهرآرا نیوز، از مدت‌ها قبل صحبت‌هایی درباره وضعیت سلامتی و احتمال بیمار شدن کیم جونگ اون، رهبر کره شمالی، در رسانه‌های دنیا مطرح شده بود. سازمان اطلاعات کره جنوبی اما به قانون‌گذاران این کشور اعلام کرده که با استفاده از تکنیک هوش مصنوعی، تجزیه و تحلیل ویدئویی با وضوح فوق‌العاده برای بررسی وضعیت او به این نتیجه رسیده که با وجود کاهش وزن حدود ۲۰ کیلوگرمی کیم، او همچنان سالم است و تلاش می‌کند تا وفاداری خود به مردم را در مواجهه با مشکلات اقتصادی افزایش دهد.

    کاهش وزن به منظور بهبود ظاهر فیزیکی

    دو قانونگذار کره جنوبی اعلام کردند که سرویس اطلاعات ملی این کشور این ارزیابی را طی یک جلسه توجیهی پارلمانی پشت درهای بسته ارائه کرده و اضافه کردند که برخلاف ظاهر لاغرتر کیم، او هیچ مشکل سلامتی ندارد و احتمالا کاهش وزنش به خاطر تلاش‌های او برای بهبود فیزیک بدنش و حفظ سلامتی جسمی بوده است.

    آن‌ها همچنین اعلام کردند که کیم جونگ اون به فعالیت‌های عمومی منظم خود ادامه می‌دهد و هیچ اتفاق غیرعادی در ویدئوهای کره شمالی دیده نشده است.

    گمانه‌زنی درباره احتمال بیماری کیم تا حدی بوده که حتی برخی مدعی شدند او در مراسمات عمومی از بدل استفاده می‌کند. هرچند کیم بیونگ کی، یکی از قانونگذاران کره جنوبی این ادعا را رد کرده است.

    بیشتر بخوانید

    هوش مصنوعی تا سال 2025 از سرویس های Iaas و Paas پیشی می‌گیرد

    او گفته: «سازمان اطلاعات اعلام کرده وزن کیم از حدود ۱۴۰ کیلو به ۱۲۰ کیلو کاهش پیدا کرده است. کیم امسال تاکنون ۷۰ روز در فعالیت‌های عمومی حضور داشته که نسبت به مدت مشابه سال گذشته ۴۵% افزایش داشته است.»

    کیم جونگ اون که ۳۷ سال سن دارد، به طور علنی جانشینی برای خود انتخاب نکرده و برخی از کارشناسان می‌گویند این امر می‌تواند باعث هرج‎‌و‎مرج در این کشور فقیر دارای سلاح هسته‌ای شود.

    جدیدترین اخبار هوش مصنوعی ایران و جهان را با هوشیو دنبال کنید

    منبع: هوشیو

    ai-admin بازدید : 30 شنبه 08 آبان 1400 نظرات (0)

    پیش از توضیح در این باره که هوش مصنوعی چطور می‌تواند سرعت تشخیص سکته را افزایش دهد، باید کمی درباره اهمیت مواردی خاص بدانید. شناسایی دقیق و به‌موقعِ ضایعه‌های سکته انسدادی حاد (AIS) در تصاویر ام‌آرآی اهمیت خارق‌العاده‌ای برای بیماران دارد و می‌تواند مراحل درمانی قلبی را ارتقاء بخشد.

    تفکیک یا شناسایی ضایعه از جمله فرایندهای روتین به شمار می‌رود که طی آن، رادیولوژیست‌ها بخش‌های غیرعادی در تصاویر مغزی را به صورت کِیفی و دستی برمی‌گزینند. با این حال، شناسایی ضایعه‌های بدن به صورت دستی به زمان زیادی احتیاج دارد و ممکن است تشخیص درستی صورت نگیرد. بر همین اساس، روش‌های کارآمد و مقرون به‌صرفه‌ای برای بررسی ضایعه‌های ناشی از سکته انسدادی حاد معرفی شده است.

    هوش مصنوعی و تشخیص سکته

    تحقیق حاضر، روشی جدید و کاملاً خودکار برای شناسایی و تفکیک ضایعه‌های ناشی از سکته انسدادی حاد در تصاویر ام‌آرآی عرضه می‌کند و منجر به تشخیص سکته با سرعت بالاتر خواهد شد؛ بنابراین، تصاویر به دست آمده به شکل کارآمدتری در قالب «سکته» و «غیر سکته» دسته‌بندی می‌شوند. این روش شناسایی نابهنجاری که به صورت کاملاً خودکار انجام می‌شود، تصاویر وزنی DWI و تصاویر ضرایب ADC را با تصاویر افراد سالم مقایسه می‌کند.

    آن بخش‌هایی که در DWI و ADC با شدت بیشتری نشان داده شده‌اند، به عنوان ضایعه یا زخم تشخیص داده می‌شوند. روش تفکیک ضایعه در میان حدود ۱۰۰ فرد بررسی شده است. از آنجا که خطرِ شناسایی اشتباه ضایعه‌ها به دلیل آرتیفکت‌ها، نویزها یا کیفیت پایین تصویر وجود دارد، پوشش‌های ضایعه‌ای (Lesion masks) ایجاد شده در این روش از طریق یک ابزار طبقه‌بندی صفر و یک مورد پایش و فیلتر قرار می‌گیرند. بنابراین، مشخص می‌شود که پوشش ضایعه‌ایِ ایجاد شده دربردارنده‌ی AIS واقعی است یا خیر. عملکرد طبقه‌بندی در حدود ۲۰۰ ام‌آرآی ارزیابی شده است.

    نتایج تحقیق که در مجله «روش‌های علوم عصب‌شناختی» منتشر شده است، سازگاری خوبی با ضایعه‌هایی دارد که کارشناسان به صورت دستی کِشیده‌اند. روش نوین از کارایی و سرعت بالایی بهره می‌برد و به حافظه یا قدرت محاسباتی بالایی نیاز ندارد.

    محقق پروژه – ساناز نظری فارسانی – از مرکز Turku PET بیان کرد: «ما معتقدیم که این روش از ظرفیت لازم برای اجرا در بسیاری از مراحل تشخیص ضایعه برخوردار است و می‌تواند در فرایندهای تشخیص بالینی بیمارستان‌ها در دستور کار باشد. این روش به رادیولوژیست‌ها کمک می‌کند تا سرعت تشخیص ضایعه افزایش و سوگیری اپراتور نیز کاهش یابد.»

    جدیدترین اخبار هوش مصنوعی ایران و جهان را با هوشیو دنبال کنید

    منبع: هوشیو

    ai-admin بازدید : 24 پنجشنبه 06 آبان 1400 نظرات (0)

    محققان آزمایشگاه ملی ساندیا روشی جدید برای تصویربرداری سه‌بُعدی در شبیه‌ساز‌های کامپیوتری طراحی کرده‌اند که در حوزه‌های گوناگون، از جمله بهداشت و درمان، کارخانجات و خودروهای برقی، کاربردهای متعدد دارد. برای تعیین کارآمدی مواد به کاررفته در سلاح‌ها و تجهیزاتی از این دست به شبیه‌سازی‌های کامپیوتر نیاز است و به گفته‌ی اسکات ای‌رابرتز، سرپرست محققان پروژه‌ی مذکور، کارآمدی و اثربخشی روش جدید در تأیید اعتبار این شبیه‌سازی‌ها تأیید شده است. علاوه بر این، از گردش کار جدید می‌توان برای آزمایش و بهینه‌سازی باتری‌های به کاررفته در انباره‌های انرژی بزرگ‌مقیاس و خودروها نیز استفاده کرد.

    ای‌رابرتز ادامه می‌دهد: «این پژوهش در راستای تحقق مأموریت ساندیا با هدف اجرای شبیه‌سازی‌های کامپیوتری معتبر و دقیق انجام شده است. ما نمی‌خواهیم به گفتن «به ما اعتماد کنید» بسنده کنیم؛ بلکه می‌خواهیم بگوییم «پاسخ ما این است و اینقدر به این پاسخ اطمینان داریم»؛ فقط به این شیوه است که می‌توان تصمیمات آگاهانه گرفت.»

    محققان گردش کار جدید را EQUIPS نامیده‌اند که مخفف «تعیین عدم اطمینان شبیه‌سازی‌های فیزیکی مبتنی بر تصویر به شکل کارآمد» است؛ یافته‌های این پژوهش در ژورنال «ارتباط با طبیعت» به چاپ رسیده است.

    مایکل کرایگیر، نویسنده‌ی اول این مقاله، می‌گوید: «با استفاده از این گردش کار جدید می‌توان به نتایج معتبرتری رسید، چون کادر و مرز مبهم اشیاء موجود در تصاویر شبیه‌سازی شده را با دقت مورد مطالعه قرار می‌دهد. به عبارت دیگر، شبیه‌سازی‌ها به جای تکیه بر تنها یک تفسیر از این کادرها، بر اساس چندین تفسیر گوناگون انجام می‌شوند تا به تصمیمات آگاهانه‌تری برسند.»

    به گفته‌ی رابرتز، EQUIPS از یادگیری ماشین استفاده می‌کند تا عدم اطمینان موجود در تصاویر سه‌بُعدی شبیه‌سازی شده‌ را کمی‌سازی کند. در نتیجه، تصمیم‌گیرندگان با در دست داشتن مقدار عدم اطمینان، می‌توانند بهترین و بدترین خروجی‌های ممکن را مدنظر قرار دهند.

    تصمیمات آگاهانه‌تر با EQUIPS

    کاریانا مارتینز، از متخصصین کامپیوتر ساندیا، توضیح می‌دهد: «به عنوان مثال، پزشکی را در نظر بگیرد که می‌خواهد سی‌تی اسکن یک بیمار را بررسی کرده و درمانی برای سرطان به او پیشنهاد دهد. این اسکن را می‌توان به قالب سه‌بُعدی درآورده و در شبیه‌سازی کامپیوتری به کار برد تا دوز مناسب پرتودرمانی، برای درمان تومور بدون آسیب رساندن به بافت‌های اطراف، مشخص شود. در حالت عادی، چون تصویر سه‌بُعدی یک بار رندر شده، تنها یک تصویر شبیه‌سازی شده به دست می‌آید.

    بیشتر بخوانید

    توسعه شهر هوشمند در کشور با کمک هوش مصنوعی

    در این شرایط، رسم کادر برای اشیاء موجود در تصویر کار سختی است و بیشتر از یک راه برای انجام آن وجود دارد. سی‌تی اسکن‌ها کیفیت چندان بالایی ندارند. به همین دلیل، مشاهده و تشخیص کادر اشیاء در آن‌ها می‌تواند چالش‌برانگیز باشد.»

    افراد و ماشین‌ها این کادرها را به شکل متفاوتی رسم می‌کنند، اما تفسیر هر دو گروه در مورد اندازه‌ و شکل تومور، قابل قبول است.

    مارتینز می‌گوید: «با استفاده از گردش کار EQUIPS که از یادگیری ماشین برای خودکارسازی فرآیند رسم کادرها استفاده می‌کند، تصویر سه‌بُعدی در نسخه‌های متعدد و گوناگونی رندر می‌شود؛ این رندرها چندین خروجی متفاوت تولید می‌کنند. بنابراین، پزشک به جای یک پاسخ، طیفی از پیش‌بینی‌ها پیش رو خواهد داشت که با تکیه بر آن‌ها، می‌تواند ریسک را ارزیابی کرده و در مورد راهکار درمانی مناسب (شیمی‎درمانی و یا جراحی) تصمیم بگیرد.»

    رابرتز نیز در این باره توضیح می‌دهد: «در کار با داده‌های دنیای واقعی، هیچ راهکار یگانه‌ای وجود ندارد. اگر قرار باشد از یک پاسخ خاص کاملاً مطمئن باشیم، باید بدانیم این پاسخ در کجای طیف قرار دارد. تصمیم نهایی هم باید بر اساس کل این طیف اتخاذ شود.»

    تیم ارائه‌دهنده‌ی EQUIPS منبع‌کد و نمونه‌ی فعال آن را به صورت آنلاین در دسترس قرار داده‌اند تا بقیه‌ی برنامه‌نویس‌ها و محققان نیز از آن بهره ببرند.

    مسئله‌ی اصلی: قطعه‌بندی

    کرایگر توضیح می‌دهد: «اولین گام شبیه‌سازی، قطعه‌بندی تصویر است؛ منظور از قطعه‌بندی، انتساب پیکسل‌ها (یا در تصاویر سه‌بُعدی، ووکسل‌ها) به هر کدام از اشیاء موجود در تصویر است تا بتوان کادر مشخصی بین آن‌ها رسم کرد. پس از این مرحله، متخصصان مدل‌هایی برای شبیه‌سازی محاسباتی می‌سازند. اما پیکسل‌ها و ووکسل‌ها در اثر تغییرات تدریجی گرادیان‌ها در هم آمیخته می‌شوند؛ بنابراین رسم کادر همیشه کار آسان و سرراستی نیست. دلیل وجود مناطق خاکستری در تصاویر سی‌تی اسکن یا ایکس‌ری نیز همین است.»

    مشکل اساسی قطعه‌بندی تصاویر اسکن‌شده این است که راه‌های متعددی برای انتساب پیکسل‌ها به اشیاء وجود دارد و این مشکل، فارغ از این‌که مسئله به دست یک متخصص انجام شود، یا از طریق بهترین‌ ابزارهای برنامه‌نویسی و یا حتی جدیدترین قابلیت‌های یادگیری ماشین، رخ خواهد داد.

    طبق توضیحات مارتینز، اگر از دو نفر بخواهیم روی یک تصویر یکسان مسئله‌ی قطعه‌بندی انجام دهند، احتمالاً از فیلترها و تکنیک‌های گوناگونی استفاده کرده و به نتایج متفاوتی می‌رسند. همه‌ی این نتایج معتبر هستند و لازم نیست یکی را برتر از دیگری بدانیم. تکنیک‌های پیشرفته‌ی یادگیری ماشین هم داستان مشابهی دارند. شبکه های عصبی نتایجی دقیق‌تر و معتبرتر با سرعت بالاتر نسبت به روش‌های دستی تولید می‌کنند؛ با این حال، هر کدام از آن‌ها از ورودی‌های گوناگون استفاده کرده و روی پارامترهای متفاوتی تمرکز می‌کنند. بنابراین، شبکه‌ها نیز قطعه‌بندی‌های متفاوت اما معتبری تولید می‌کنند.

    بیشتر بخوانید

    هوش مصنوعی می‌تواند سرعت تشخیص سکته را افزایش دهد

    ارتقاء اعتبار شبیه‌سازی‌های نهایی با گردش کار جدید

    کرایگر توضیح می‌دهد: «گردش کار جدید قطعه‌بندی EQUIPS این ابهام‌ها از میان برنمی‌دارد، بلکه اعتبار شبیه‌سازی‌های نهایی را ارتقاء می‌دهد؛ بدین منظور، ابهام‌های ناشناخته‌ی قبلی را برای تصمیم‌گیرندگان آشکار می‌سازد.»

    EQUIPS برای اجرای قطعه‌بندی، دو نوع تکنیک یادگیری ماشین به کار می‌گیرد: شبکه‌های دراپ‌اوت مونته-کارلو و شبکه‌های عصبی پیچشی بیزی. هر دوی این رویکردها یک مجموعه از نمونه‌های قطعه‌بندی تصویر تولید می‌کنند. این نمونه‌ها با هم ترکیب می‌شوند تا احتمال وجود یک یپکسل یا ووکسل در قسمت‌های مختلف تصویر مشخص شود. EQUIPS برای بررسی اثر عدم اطمینان و اجرای قطعه‌بندی، نگاشتی از احتمالات ایجاد می‌کند؛ سپس، از این قطعه‌بندی‌ها برای اجرای چند شبیه‌سازی و محاسبه‌ی توزیع عدم اطمینان استفاده می‌شود.

    محققانی از دانشگاه پردو و اعضای «برنامه‌ی همکاری با دانشگاه‌ها» این تحقیقات را تحت پوشش «برنامه‌ی تحقیق و توسعه‌ی مدیریت‌شده‌» آزمایشگاه ساندیا انجام داده‌اند.

    محققان چندین مورد از حوزه‌هایی که می‌توانند از گردش کار EQUIPS بهره‌مند شوند را برشمرده‌اند: سی‌تی اسکن الکترودهای گرافیتی در باتری‌های یونی لیتیوم که بیشتر در خودروهای برقی، کامپیوترها، تجهیزات پزشکی و هوایی به کار می‌روند، اسکن ترکیباتی که به عنوان عایق حرارتی در تجهیزات حاضر در اتمسفر، مثل راکت یا موشک‌ها، استفاده می‌شوند و در آخر، تصاویر اسکنی که از شاهرگ و ستون مهره‌ی انسان‌ها گرفته می‌شوند.

    رابرتز می‌گوید: «هدف اصلی ما از انجام این کار این بوده است که با تکیه بر قطعه‌بندی ماشینی، لازم نیست تنها به دریافت یک پاسخ واحد بسنده کنیم؛ بلکه می‌توانیم به صورت عینی قطعه‌بندی انجام شده را مورد بررسی قرار دهیم تا ابهام و عدم اطمینان آن را دریابیم. درک و تشخیص عدم اطمینان نتیجه‌ی کار را معتبرتر کرده و اطلاعات بیشتری در اختیار تصمیم‌گیرندگان قرار می‌دهد. این نتایج در همه‌ی حوزه‌هایی که از شبیه‌سازی‌های کامپیوتری استفاده می‌کنند، از جمله مهندسی و پزشکی، قابلیت کاربرد دارند.»

    به نظر شما این روش جدید تصویربرداری سه‌بُعدی در چه حوزه‌های دیگری می‌تواند کاربرد داشته باشد؟

    انواع کاربردهای هوش مصنوعی در صنایع مختلف را در هوشیو بخوانید

    منبع: هوشیو

    ai-admin بازدید : 26 سه شنبه 04 آبان 1400 نظرات (0)

    مرکز آینده‌ کار Cognizant چرخه‌ معیوبی را کشف کرده که مانع پیشرفت هوش مصنوعی و کابردهای آن است، طوری که تنها ۲۰ درصد از سردمداران این حوزه امکان پیشروی بیشتر را در اختیار دارند.

    بر اساس چارچوبی که Cognizant ارائه داده، کسب و کارهای کمی در صدر «منحنی بلوغ هوش مصنوعی» قرار دارند. تنها ۲۰ درصد کسب و کارها جزو «سردمداران» هوش مصنوعی در نظر گرفته می‌شوند، ۶۱ درصد آن‌ها «مجری» (یعنی در حال پیشرفت هستند، اما هنوز به بلوغ نرسیده‌اند) و ۱۹ درصد مبتدی هستند.

    کسب‌و‎کارهای بالغ

    آن دسته از کسب و کارهایی که بر اساس این منحنی بالغ به نظر می‌رسند، رویکرد مثبت‌تری نسبت به اثرات فناوری هوش مصنوعی خود دارند. ۸۱ درصد از سردمداران و تنها ۲۰ درصد از مجریان و مبتدیان معتقدند سرمایه‌گذاری روی هوش مصنوعی، تأثیر چشمگیری روی ارتقای عملکردشان خواهد داشت.

    ۷۸ درصد از سردمداران انتظار دارند تا قبل از سال ۲۰۲۳، نتیجه‌ ملموسی از به کارگیری هوش مصنوعی ببینند. این عدد برای سایر کسب و کارها، ۳۲ درصد است.

    در این قسمت، مثلثی را معرفی می‌کنیم که از نظر Cognizant، مانع پیشرفت هوش مصنوعی است و جلوی بلوغ آن را گرفته است:

    • ارزش قائل نشدن برای قابلیت‌های تصمیم‌گیری هوش مصنوعی
    • اعتماد نکردن
    • محدود کردن کاربرد هوش مصنوعی در تصمیم‌گیری‌ها

    سرمداران این عرصه از نظر این سه مورد نیز تفاوت زیادی با سایر کسب و کارها دارند. از هر ده سردمدار هوش مصنوعی، نه نفر این فناوری را «داستان اصلی عصر حاضر» می‌دانند، اما تنها ۴ مورد از ۱۰ شرکت مبتدی و مجری چنین طرز تفکری دارند. بیش از ۹۰ درصد سردمداران قابلیت این فناوری در پیش‌بینی تهدیدهای بالقوه و تحلیل حجم بالای داده‌ها را قبول دارند.

    در بین دو گروه‌ دیگر، ۵۰ درصد بر این باورند که هوش مصنوعی به پیش‌بینی خروجی‌ها کمک می‌کند و تنها ۳۳ درصد آن را برای درک و پردازش دیتاست‌های بزرگ مفید می‌دانند.

    به دنبال یک رشته اتفاقات جنجال‌برانگیز و پرسروصدا از شکست هوش مصنوعی، به خصوص در دوران همه‌گیری کووید-۱۹، اعتماد به قابلیت تصمیم‌گیری این فناوری (و به صورت کلی نرم‌افزارها) رو به افول رفته است.

    مقاله‌ای جدید از BCS (مؤسسه‌ رسمی IT) گام‌های اشتباهی که به اعتماد به هوش مصنوعی خدشه وارد کرده‌اند را مورد مطالعه قرار داد؛ از جمله‌ این اشتباهات می‌توان به بحران سال گذشته‌ بریتانیا اشاره کرد که مربوط به استفاده از یک الگوریتم برای برآورد نمرات دانشجویان بود.

    اعتمادسازی

    مطالعات Cognizant نشان داد هرچه تجربه‌ استفاده از این فناوری بیشتر باشد، اعتماد بیشتری نسبت به قابلیت تصمیم‌گیری آن وجود خواهد داشت. در هر صورت، ساخت این اعتماد به زمان نیاز دارد.

    نکته‌ جالب اینجاست که سردمداران هوش مصنوعی در حوزه‌هایی متفاوت از سایر شرکت‌ها، از این فناوری استفاده می‌کنند.

    بیشترین کاربرد هوش مصنوعی در میان سردمداران مربوط به پیش‌بینی خروجی است؛ رتبه‌ بعدی مربوط به درک داده‌های بدون ساختار است. رتبه‌ اول برای بقیه‌ی شرکت‌ها مربوط به درک داده‌ها و به دنبال آن، پیش‌بینی خروجی، جمع‌آوری لحظه‌ای اطلاعات و دستیابی به بینش و اطلاعات جدید (با درصد مشابه) می‌باشد.

    در حال حاضر، بیشترین استفاده از فناوری هوش مصنوعی برای هر سه دسته مربوط به چت‌بات‌هاست. تنها حوزه‌هایی که در آن‌ها، شرکت‌های مجری و مبتدی بیشتر از سردمدران یا به اندازه‌ آن‌ها از هوش مصنوعی استفاده می‌کنند عبارت‌اند از: پشتیبانی مرکز تماس، تشخیص چهره، امنیت محوطه، و عاملان هوشمند.

    برای کمک به قطع این چرخه و پیشرفت بیشتر در منحنی بلوغ هوش مصنوعی، Cognizant سه پیشنهاد کلیدی به کسب و کارها ارائه می‌دهد: تدوین برنامه‌ای هدفمند، فراتر رفتن از اهداف کوتاه‌مدت و آسان، پذیرش طیف وسیع‌تری از راهکارهای هوش مصنوعی و در آخر، انسان‌محورتر کردن کاربردها.

    انواع کاربردهای هوش مصنوعی در صنایع مختلف را در هوشیو بخوانید

    منبع: هوشیو

    ai-admin بازدید : 31 دوشنبه 03 آبان 1400 نظرات (0)

    جمعی از برترین متخصصان هوش مصنوعی جهان در رویداد بین‌المللی TNW حضور به عمل خواهند آورد تا درباره آینده این حوزه و همچنین تحقیقات یادگیری ماشین به بحث و تبادل نظر بپردازند.

    یادگیری ماشین در بسیاری از صنایع و حوزه‌های علمی، ‌ابزاری مهم به شمار می‌آید. با این حال، تحقیقات یادگیری ماشین و توسعه محصول چالش‌هایی را پیش‌روی افراد [فعال در این حوزه] قرار داده‌ است که اگر به آن‌ها پرداخته نشود، ممکن است پروژه در مسیر نادرستی قرار گیرد.

    مایکل لونز، دانشیار مدرسه ریاضی و علوم محاسباتی از دانشگاه هریوت وات، ادینبورگ، در نسخه پیش‌چاپ مقاله‌‌ خود که اخیراً در سایت arXiv  منتشر شده است، فهرستی از بایدها و نبایدهای تحقیقات یادگیری ماشین را ارائه کرده است.

    این مقاله چالش‌های مراحل مختلف تحقیقات یادگیری ماشین را دربر می‌گیرد. لونز در مورد مقاله خود می‌گوید: «این مقاله شامل درس‌ها و نکته‌هایی است که هنگام انجام تحقیقات یادگیری ماشین در محیط دانشگاهی و هنگام راهنمایی دانشجویان برای انجام تحقیقات، آموخته‌ام». اگرچه این مقاله برای پژوهشگران دانشگاهی نوشته شده است، اما برنامه‌نویسانی که در حال ساخت مدل‌های یادگیری ماشین برای استفاده در دنیای واقعی هستند، نیز می‌توانند از دستورالعمل‌های آن استفاده کنند.

    در ادامه نکات مفیدی از این مقاله را ارائه می‌کنیم.

    لزوم توجه بیشتر به داده‌ها

    رشد و توسعه مدل‌های یادگیری ماشین منوط به داده ها است. در همین راستا، لونز در سرتاسر مقاله به اهمیت توجه بیشتر به داده‌ها در تمام مراحل یادگیری ماشین اشاره می‌کند. به عبارتی، باید مراقب نحوه جمع‌آوری و آماده‌سازی داده‌ها و استفاده از آن‌ها برای آموزش و ارزیابی مدل‌های یادگیری ماشین باشید.

    اگر داده‌ها از منبع معتبری تهیه نشده و به شیوه‌ای قابل اعتماد جمع‌آوری نشده‌ باشند، هیچ توان محاسباتی و هیچ فناوری پیشرفته‌ای نمی‌تواند کارساز باشد. همچنین، لازم است تمام تلاش خود را به بررسی منشاء و کیفیت داده‌ها معطوف کنید. لونز می‌نویسد: «تصور نکنید به دلیل اینکه در چندین مقاله از یک دیتاست‌ استفاده شده است، آن دیتاست از کیفیت خوبی برخوردار است».

    دیتاست‌ها ممکن ایرادهای مختلفی داشته باشند، ایرادهایی که در نهایت به یادگیری اشتباه مدل منجر می‌شوند. برای مثال، اگر بر روی مسئله طبقه بندی کار می‌کنید و در دیتاست مورد استفاده، تعداد نمونه‌های یک کلاس بسیار زیاد و تعداد نمونه‌های کلاس دیگر بسیار اندک است، مدل یادگیری ماشین آموزش‌دیده ممکن است همه ورودی‌ها را در طبقه بزرگ‌تر پیش‌بینی کند. در این صورت با مشکل «کلاس نامتوازن» (class imbalance) روبه‌رو هستید.

    اگرچه، مسئله کلاس نامتوازن به سرعت با شیوه‌های مختلف داده‌کاوی برطرف می‌شود، اما برطرف کردن مشکلات دیگر نیاز به دقت و تجربه بیشتری دارد. مثلاً، اگر تمام تصاویر موجود در دیتاست در روز روشن گرفته شده باشند، مدل یادگیری ماشین در پیش‌بینی عکس‌های تیره عملکرد ضعیفی خواهد داشت. نمونه بارزتر این مشکل در تجهیزات مورد استفاده برای جمع‌آوری داده‌ها به چشم می‌خورد. برای مثال، اگر تمام عکس‌های دیتای آموزشی با یک دوربین عکاسی گرفته‌ شده باشند، مدل احتمالاً ردپای بصری منحصر به فرد دوربین را تشخیص داده و در پیش‌بینی تصاویر گرفته شده با سایر دوربین‌ها عملکرد ضعیفی خواهد داشت. در مجموع، دیتاست‌های یادگیری ماشین ممکن است سوگیری‌های مختلفی داشته باشند.

    کمیت داده‌ها نیز بسیار حائز اهمیت است و باید داده‌ی کافی در اختیار داشته باشید. طبق توضیحات لونز، «اگر سیگنال قوی باشد، می‌توانید با داده‌ی کمتر نیز کار خود را انجام دهید، اما اگر سیگنال ضعیف باشد، به داده‌های بیشتری نیاز دارید».

    در برخی از حوزه‌ها، می‌توان کمبود داده را با تکنیک‌هایی مانند اعتبارسنجی متقابل و داده‌افزایی جبران کرد. با این حال، به طور کلی باید بدانید که هرچه مدل یادگیری ماشین پیچیده‌تر باشد، به داده‌های آموزشی بیشتری نیاز خواهید داشت. برای مثال، چند صد نمونه آموزشی ممکن است برای آموزش یک مدل رگرسیون ساده با چند پارامتر کافی باشد. اما اگر قصد دارید یک شبکه عصبی عمیق با میلیون‌ها پارامتر ایجاد کنید، به داده‌های آموزشی بسیار بیشتری نیاز خواهید داشت.

    نکته مهم دیگری که لونز در مقاله خود به آن اشاره می‌کند، لزوم تفکیک دقیق دیتای آموزش و دیتای آزمایشی است. مهندسان یادگیری ماشین معمولاً بخشی از داده‌های خود را برای آزمایش مدل آموزش دیده کنار می‌گذارند. اما گاهی اوقات، داده‌های آزمایشی به فرایند آموزش رخنه می‌کند. این امر ممکن است به ایجاد مدل‌هایی ختم شود که نمی‌توان آن‌ها را به داده‌های جمع‌آوری شده از دنیای واقعی تعمیم داد.

    لونز یادآوری می‌کند که: «اجازه ندهید داده‌های آزمایشی به فرایند آموزش راه پیدا کنند. بهترین روش مقابله با آن، این است که در همان ابتدای امر، یک زیرمجموعه ازدیتاست را جدا کرده و در پایان تنها یک مرتبه از این زیرمجموعه مستقل برای اندازه‌گیری تعمیم‌پذیری مدل استفاده کنید».

    در سناریوهای پیچیده‌تر، بهتر است یک «دیتاست اعتبارسنجی» نیز داشته باشید. منظور از دیتاست اعتبارسنجی، دیتاست آزمایشی دیگری است که مدل یادگیری ماشین را در فرایند نهایی مورد ارزیابی قرار می‌دهد. برای مثال، اگر از اعتبارسنجی متقابل (cross-validation) یا یادگیری جمعی (ensemble learning) استفاده می‌کنید، ممکن است آزمون اصلی، ارزیابی دقیقی از مدل‌ شما ارائه ندهد. در این شرایط استفاده از دیتاست اعتبارسنجی می‌تواند کارساز باشد.

    به گفته لونز: «اگر داده‌ کافی دراختیار دارید، بهتر است بخشی از را کنار بگذارید و تنها یک مرتبه برای ارائه برآوردی بی‌طرفانه از نمونه‌های نهایی استفاده کنید».

    لزوم شناخت مدل مورد نظر و مدل‌های دیگر

    امروزه، یادگیری عمیق مورد توجه همگان قرار گرفته‌ است. اما لزوماً یادگیری عمیق کلید رفع هر مشکلی نیست. در واقع، حتی یادگیری ماشین لزوماً حلال تمام مشکلات نیست. گاهی اوقات، عملکرد تطبیق الگوها و قوانین ساده با کسری از داده‌ها و توان محاسباتی اندک با عملکرد پیچیده‌ترین مدل‌های یادگیری ماشین برابری می‌کند.

    اما وقتی صحبت از مشکلاتی به میان می‌آید که مخصوص مدل‌های یادگیری ماشین هستند، همیشه باید فهرستی از الگوریتم‌های منتخب داشته باشید و آن‌ها را ارزیابی کنید. لونز معتقد است: «به طور کلی، چیزی به نام بهترین مدل یادگیری ماشین وجود ندارد. در واقع، در نظریه‌ای به نام ’ناهار مجانی‘ شواهدی دالِ بر این وجود دارد که در یادگیری ماشین هیچ رویکرد خاصی برای حل یک مشکل احتمالی بهتر از رویکردهای دیگر نخواهد بود».

    در گام نخست، باید به تطبیق مدل با مشکل بپردازید. برای مثال، بسته نوع خروجی مورد نظر (گسسته یا پیوسته)، باید الگوریتم یادگیری ماشین مناسب و ساختار مناسب را انتخاب کنید. علاوه بر این، نوع داده‌ها (مثلاً، جداول، تصاویر، متنِ ساختاریافته و بدون ساختار و غیره) می‌تواند عامل تعیین‌کننده‌ی کلاسِ مدلِ مورد استفاده باشد.

    یکی از نکته‌های مهمی‌که لونز در مقاله خود مطرح می‌کند، لزوم اجتناب از پیچیدگی بیش‌ از حد است. برای مثال، اگر مشکل شما با یک درخت تصمیم ساده یا مدل رگرسیون حل شود، استفاده از یادگیری عمیق بی‌فایده خواهد بود.

    لونز در مورد دوباره‌کاری نیز هشدار می‌‌دهد. با توجه به اینکه یادگیری ماشین یکی از داغ‌ترین موضوعات پژوهش است، همیشه این احتمال وجود دارد که شخص دیگری مشکلی مشابه مشکل شما را حل کرده باشد. در چنین شرایطی، عاقلانه‌ترین کار این است که آن‌ها را بررسی کنید. این امر می‌تواند در وقت شما صرفه جویی کند زیرا احتمالاً پیش از این سایر محققان نیز با چالش‌هایی که به دنبال حل آن‌ها هستید روبرو بوده‌ و آن‌ها را برطرف کرده‌اند.

    لونز معتقد است: «نادیده گرفتن مطالعات قبلی به معنای از دست دادن اطلاعات ارزشمند است».

    با بررسی مقالات و پژوهش‌های محققان دیگر، احتمالاً مدل‌های یادگیری ماشین دیگری پیدا خواهید کرد که بتوانید از آن‌ها برای حل مسئله خود استفاده کنید. در حقیقت، محققان یادگیری ماشین اغلب از الگوهای یکدیگر برای صرفه جویی در وقت و منابع محاسباتی استفاده می‌کنند و با یک مبنای اولیه و مورد اعتماد جامعه یادگیری ماشین شروع می‌کنند.

    لونز هشدار می‌دهد که باید از سندرم «در اینجا اختراع نشده است» اجتناب کرد؛ به عبارت دیگر، اگر تنها از مدل‌هایی استفاده کنید که در سازمان خود اختراع کرده‌اید، ممکن است بهترین مدل‌های ممکن برای حل مشکل را نادیده بگیرید.

    لزوم شناخت هدف نهایی و الزامات آن

    اگر به طور دقیق موارد کاربرد مدل یادگیری خود را بشناسید، می‌توانید به خوبی آن را توسعه دهید. اگر یادگیری ماشین را صرفاً برای اهداف دانشگاهی و پیش بردن مرزهای علم ایجاد می‎کنید، ممکن است در مورد نوع داده‌ها یا الگوریتم‌های یادگیری ماشینی مورد استفاده، هیچ محدودیتی نداشته باشید. با این‌حال، هیچ پژوهش دانشگاهی تا ابد در آزمایشگاه‌های تحقیقاتی محبوس نمی‌ماند.

    به نوشته لونز، «[در] بسیاری از مطالعات دانشگاهی، هدف نهایی تولید مدل یادگیری ماشینِ قابل استفاده در دنیای واقعی است؛ بنابراین، بهتر است هر چه زودتر در مورد نحوه استقرار آن در دنیای واقعی چاره‌ای بیاندیشید».

    برای نمونه، اگر قرار است مدل شما برای ساخت نرم‌افزارهایی استفاده ‌شود که به جای سرورهای بزرگ باید بر روی دستگاه‌ها اجرا ‌شوند، نمی‌توانید از شبکه های عصبی بزرگ استفاده کنید که نیاز به مقدار زیادی حافظه و فضای ذخیره‌سازی دارند. باید مدل‌های یادگیری ماشین خود را طوری طراحی کنید که در محیط‌هایی با منابع محدود نیز قابل اجرا باشند.

    یکی دیگر از مسائل پیش‌رو لزوم توضیح‌پذیری است. در برخی از حوزه‌ها، مانند امور مالی و بهداشت و درمان، ‌در صورت درخواست کاربر، برنامه‌نویسان از نظر قانونی ملزم به ارائه توضیحاتی در مورد تصمیمات الگوریتمی هستند. در چنین مواردی، استفاده از مدل جعبه سیاه امکان‌پذیر نیست. در چنین شرایطی، حتی اگر مدل عملکرد مطلوبی داشته باشد، اما تفسیرنا‌پذیری آن را بلااستفاده می‌سازد. در عوض، یک مدل شفاف‌تر، مانند درخت تصمیم، به احتمال زیاد انتخاب بهتری خواهد بود، حتی اگر عملکرد چندان مطلوبی نداشته باشد. به عبارت دیگر، اگر لزوم استفاده از یادگیری عمیق برای نرم‌افزارتان برای شما به اثبات رسیده است، باید تکنیک‌هایی را بررسی کنید که بتوانند تفسیرهایی موثق از فعال‌سازی در شبکه عصبی ارائه دهند.

    در مقام یک مهندس یادگیری ماشین، ممکن است از الزامات مدل خود آگاهی دقیقی نداشته باشید. بنابراین، لازم است با متخصصان این حوزه مشورت کنید زیرا این متخصصان می‌توانند شما را در مسیر درست هدایت کرده و تعیین کنند آیا در جهت حل مشکل مورد نظر گام بر می‌دارید یا خیر.

    طبق توضیحات لونز «عدم توجه به نظر متخصصان هر حوزه ممکن است باعث ایجاد پروژه‌هایی شود که به مسائل بی‌ثمر می‌پردازند یا پروژه‌هایی که مسائل مهم را با روش‌هایی نامناسب حل می‌کنند».

    برای مثال، اگر یک شبکه عصبی ایجاد کرده‌اید که تقلب در تراکنش‌های بانکی را با دقت بسیار بالایی مشخص می‌کند، اما توضیحی درباره نحوه‌ی تصمیم‌گیری خود ارائه نمی‌دهد، موسسات مالی نمی‌توانند از آن استفاده کنند.

    روش‌های اندازه‌گیری و گزارشی را مشخص کنید/ لزوم شناخت روش‌های اندازه‌گیری و گزارش آن‌ها

    روش‌های مختلفی برای اندازه‌گیری عملکرد مدل‌های یادگیری ماشین وجود دارد، اما همه آن‌ها لزوماً برای مشکل مورد بررسی مناسب نیستند.

    بسیاری از مهندسان یادگیری ماشین از «آزمون دقت» (accuracy test) برای رتبه‌بندی مدل‌های خود استفاده می‌کنند. آزمون دقت درصد پیش‌بینی‌های صحیح مدل را محاسبه می‌کند. این عدد در برخی موارد می‌تواند گمراه کننده باشد.

    برای مثال، دیتاستی متشکل از اسکن‌های اشعه ایکس را در نظر بگیرید که برای آموزش مدل یادگیری ماشین در تشخیص سرطان استفاده می‌شود. داده‌های شما نامتعادل است و ۹۰ درصد نمونه‌های آموزشی با برچسب خوش‌خیم و تعداد بسیار کمی با برچسب  بدخیم طبقه‌بندی شده‌اند. اگر مدل آموزشی شما در آزمون دقت نمره ۹۰ کسب کند، احتمالاً یاد گرفته است که همه عکس‌ها را خوش‌خیم برچسب‌گذاری کند. در صورتی که از این مدل در یک نرم‌افزار و در محیط واقعی استفاده شود، احتمالاً مواردی را به اشتباه برچسب‌گذاری خواهد کرد؛ این امر نتایج فاجعه‌باری در پی خواهد داشت. در چنین مواردی، تیم یادگیری ماشین باید از آزمون‌هایی استفاده کند که به عدم تعادل کلاس حساس نباشند یا با کمک ماتریس درهم‌ریختگی (confusion matrix)، دیگر معیارهای اندازه‌گیری را بررسی کند. تکنیک‌های جدیدتر می‌توانند عملکرد مدل را در حوزه‌های مختلف به دقت اندازه‌گیری‌ کنند.

    علاوه ‌بر این، ممکن است برنامه‌نویس یادگیری ماشین معیارهای متعددی را با در نظر گرفتن نرم‌‌افزار مورد استفاده اندازه‌گیری کند. برای نمونه، در مثال تشخیص سرطان، کاهش موارد منفی کاذب تا حد امکان از اهمیت بسیاری برخوردار است، حتی اگر به قیمت پایین آمدن دقت مدل یا افزایش جزئی مثبت کاذب باشد. بهتر است چند فرد سالم برای تشخیص به بیمارستان فرستاده شوند تا اینکه بیمارانِ مبتلا به سرطان پیشرفته شناسایی نشوند.

    لونز خاطرنشان می‌سازد که هنگام مقایسه چندین مدل یادگیری ماشین برای حل یک مشکل، اعداد بزرگ‌تر لزوماً به معنای بهتر‌ بودن مدل‌ نیستند. تفاوت عملکرد ممکن است به دلیل آموزش و آزمایش مدل بر روی بخش‌های مختلف یک دیتاست یا اجرا بر روی دیتاستی کاملاً متفاوت بدست آمده باشد.

    او معتقد است: «برای اینکه مقایسه دو رویکرد منصفانه باشد، باید اجرای مدل‌های مورد مقایسه جدید باشد، همه مدل‌ها به یک اندازه بهینه‌سازی شده باشند، چندین مرتبه ارزیابی شوند … و سپس از آزمون‌های آماری برای تعیین سطح معناداری تفاوت عملکرد مدل‌ها استفاده شود».

    لونز همچنین در مورد دست‌بالاگرفتن قابلیت‌های مدل هشدار می‌دهد. او می‌نویسد: «یکی از اشتباهات رایج  کلی‌گویی‌هایی است که داده‌های آموزشی و ارزیابی مدل‌، از آن‌ها پشتیبانی نمی‌کند».

    بنابراین، در تمام گزارشات مربوط به عملکرد مدل باید نوع داده‌ای که مدل بر روی آن آموزش دیده و آزمایش شده است، قید گردد. اعتبارسنجی مدل بر روی دیتاست‌های متعدد تصویری عینی‌تر از قابلیت‌های آن ارائه می‌دهد، اما کماکان لازم است نسبت به نوع خطای داده‌ای که در بالا مطرح کردیم، محتاط باشید.

    شفافیت نیز سهم بسزایی در سایر تحقیقات یادگیری ماشین دارد. اگر معماری مدل خود و همچنین روند آموزش و اعتبارسنجی را به طور کامل شرح دهید، سایر محققانی که یافته‌های شما را مطالعه می‌کنند می‌توانند از آن‌ها در کارهای بعدی خود استفاده کنند یا حتی به ایرادات احتمالی روش‌شناسی پژوهش شما کمک کنند. در نهایت، به دنبال تکرارپذیری باشید. اگر کد منبع و پیاده‌سازی مدل خود را منتشر کنید، می‌توانید در کارهای آینده ابزارهای فوق العادهای در اختیار جامعه یادگیری ماشین قرار دهید.

    یادگیری ماشین کاربردی

    جالب اینجاست که تقریباً تمام مواردی که لونز در مقاله خود به آن‌ها اشاره کرده است در یادگیری ماشین کاربردی نیز مصداق دارد.  یادگیری ماشین کاربردی به شاخه‌ای از یادگیری ماشین اطلاق می‌شود که دغدغه آن ادغام مدل‌ها در محصولات واقعی است. با این حال، ذکر این نکات که فراتر از تحقیقات دانشگاهی است، در برنامه‌های کاربردی و محیط واقعی ضروری به نظر می‌رسد.

    زمانی که صحبت از داده‌ها به میان می‌آید، مهندسان یادگیری ماشین باید قبل از گنجاندن مدل‌ها در محصولات، ملاحظات بیشتری را در نظر بگیرند. برخی از این ملاحظات، پیرامون حریم خصوصی و امنیت داده‌ها است. برخی هم به رضایت کاربر و محدودیت‌های قانونی اشاره دارد. بسیاری از شرکت ها به دلیل استخراج داده‌های کاربران بدون رضایت آن‌ها، دچار مشکل شده‌اند.

    موضوع مهم دیگری که در یادگیری ماشین کاربردی اغلب به دست فراموشی سپرده می‌شود، پوسیدگی مدل (model decay) است. برخلاف تحقیقات دانشگاهی، مدل‌های یادگیری ماشین مورد استفاده در محیط واقعی باید به طور مرتب بازآموزی و به‌روز رسانی شوند. به دلیل اینکه داده‌ها هر روزه تغییر می‌کنند، مدل‌های یادگیری ماشین «می‌پوسند» و عملکرد آن‌ها ضعیف‌تر می‌شود. برای مثال، با تغییر عادات زندگی  در دوران قرنطینه، سیستم‌های یادگیری ماشین که بر روی داده‌های قدیمی‌آموزش دیده بودند، شکست خورده و نیاز به بازآموزی دارند. در همین راستا، با ظهور روندهای جدید و تغییر عادات گفتاری و نوشتاری، الگوهای زبانی باید دائماً به روز رسانی شوند. به موجب این تغییرات، تیم تولید یادگیری ماشین باید راهکاری برای جمع‌آوری داده‌های جدید و بازآموزی دوره‌ای مدل‌های خود طراحی کنند.

    در نهایت، یکپارچه‌سازی به چالش بزرگی در پروژه‌های یادگیری ماشین کاربردی تبدیل خواهد شد. لذا، این سوالات مطرح می‌شوند که: سیستم جدید یادگیری ماشین چگونه با نرم‌افزارهای فعلی یک سازمان تعامل برقرار می‌کند؟ آیا زیرساخت داده‌ها آماده اتصال به خط یادگیری ماشین است؟ آیا زیرساخت فضای اَبری یا سرور از استقرار و مقیاس‌بندی مدل تولید شده پشتیبانی می‌کند؟ پاسخ به این سوالات می‌تواند موفقیت یا شکست استقرار محصولِ جدید یادگیری ماشین را تعیین کند.

    برای مثال، آزمایشگاه تحقیقاتی هوش مصنوعی OpenAI به تازگی نسخه آزمایشی مدل Codex API خود را برای ارزیابی عمومی ‌راه‌اندازی کرده است. اما به دلیل اینکه سرورهای شرکت نتوانستند پاسخگوی مقیاس بالای تقاضای کاربران باشند، این راه‌اندازی به شکست انجامید.

    در این نوشتار نکاتی چند در مورد ارزیابی پروژه‌ها و تحقیقات یادگیری ماشین و پیشگیری از اشتباهات احتمالی ارائه شد. برای جزئیات بیشتر در مورد اشتباهات رایج در روند تحقیق و توسعه یادگیری ماشین، می‌توانید به مقاله کامل لونز، با عنوان «چگونه از مشکلات یادگیری ماشین جلوگیری کنیم: راهنمای محققان دانشگاهی» مراجعه کنید.

    جدیدترین اخبار هوش مصنوعی ایران و جهان را با هوشیو دنبال کنید

    منبع: هوشیو

    ai-admin بازدید : 30 شنبه 01 آبان 1400 نظرات (0)

    تیمی از پژوهشگران دانشگاه کالیفرنیا، سن‌دیگو، یک سیستم مبتنی بر شبکه های عصبی عمیق ساخته‌اند؛ این سیستم می‌تواند ویژگی‌هایی را شناسایی کند که قادر به پیش‌بینی عوامل رونویسی متصل‌شونده هستند. در مقاله‌ی این پژوهشگران (منتشرشده در ژورنال Nature Machine Intelligence) به کاربردهای احتمالی این سیستم در درک بهتر بیماری‌های مرتبط با عوامل رونویسی اشاره شده است.

    عوامل رونویسی پروتئین‌هایی هستند که در کنترل نرخ رونویسی اطلاعات ژنتیکی نقش دارند؛ بدین صورت که نحوه‌ی اتصال آن‌ها به DNA خاموش یا روشن بودن ژن‌های آن قسمت از DNA را مشخص می‌کند. بر اساس پیشینه‌ی تحقیقات، اختلال در کار عامل رونویسی به بیماری‌هایی همچون سندروم رت، دیابت جوانان هنگام بلوغ و دیستروفی قرنیه فوکس منجر می‌شود. برخی از این تحقیقات نقش این پروتئین‌ها در رشد تومورهای سرطانی را نیز تأیید کرده‌اند.

    پیروی عوامل رونویسی از قوانینی خاص

    دانشمندان باید درک بهتری از فرآیند رونویسی به دست بیاورند تا بتوانند از چنین بیماری‌هایی جلوگیری کنند. در این پروژه، پژوهشگران یک سیستم مبتنی بر شبکه‌ی عصبی ساخته‌اند که به کشف قوانین ژنتیکی کمک می‌کند؛ قوانینی که عوامل رونویسی هنگام اتصال به DNA از آن‌ها پیروی می‌کنند. هدف دیگر این سیستم یافتن نوکلئوتیدهای غیررمزگذاری است که بیشترین تأثیر را روی اتصال عوامل رونویسی دارند.

    نسخه‌ی ابتدایی سیستم AgentBind نیز توسط این تیم پژوهشی از دانشگاه سن‌دیگو ساخته شده بود. سیستم AgentBind حاصل ترکیب سه شبکه‌ی عصبی پیچشی، یک لایه‌ی متصل و مجموعه‌ای از شبکه‌های عصبی پیچشی و بازگشتی است. از آن‌جایی که چنین تحقیقاتی به داده‌های زیادی نیاز دارند، این پژوهشگران از یادگیری انتقالی (و نه از یادگیری سنگین) استفاده کردند و بدین ترتیب به نتایج کارآمدتری دست یافتند. علاوه بر این طی فرآیند فراتحلیل، ضرایب اهمیت را مشخص کرده و محل اتصالات را در خود بافت تشخیص دادند.

    در مرحله‌ی آزمایش، سیستم روی عوامل‌‌‌ ‌‌‌‌رونویسی اجرا شد و نتیجه‌ و محصول آن مورد مطالعه قرار گرفت. در نتیجه‌ی این گام مشخص شد سیستم می‌تواند اطلاعات جدیدی در مورد انواع مختلف عوامل رونویسی متصل‌شونده (که احتمالاً در ایجاد بیماری‌ها نقش دارند) ارائه دهد. به کمک این اطلاعات می‌توانیم درک کنیم عوامل رونویسی چطور از روند معمولی منحرف شده و به بروز بیماری می‌انجامند و بدین ترتیب مسیر کشف درمان‌های مربوطه را هموارتر کنیم.

    منبع: هوشیو

    ai-admin بازدید : 29 پنجشنبه 29 مهر 1400 نظرات (0)

    فن‌آوری هوش مصنوعی در بسیاری از فرایندهای امنیت سایبری به کار می‌رود. این فن‌آوری به فرایندهای مدیریت و تشخیص کلاهبرداری نیز راه یافته است. اما این فن‌آوری در کنار مزایای بسیار خود، چالش‌هایی (سوگیری) نیز دارد.

    فن‌آوری هوش مصنوعی ارزش و توانمندی خود را در بسیاری از فرایندهای امنیت سایبری به اثبات رسانده است. برای مثال، این فن‌آوری به تشخیص بدافزار و تشخیص ناهنجاری در ترافیک شبکه کمک می‌کند. علاوه بر این، هوش مصنوعی به تحلیل‌گران کمک می‌کند هشدارهای امنیتی را در اولویت خود قرار دهند. تمامی مواردی که به آن‌ها اشاره شد، علاوه بر کاهش هزینه‌ها، کاهش خطای انسانی را نیز به همراه دارد.

    به گفته منگ لیو، یکی از تحلیل‌گران شرکت Forrester Research، «شرکت‌ها، صنایع و کشورهای بسیاری به استفاده از فن‌آوری هوش مصنوعی روی آورده‌اند. مدل‌های مبتنی بر هوش مصنوعی به شما در ایجاد مزیت رقابتی کمک می‌کنند.»

    هم‌اکنون، فن‌آوری هوش مصنوعی مصمم شده است تا فرایندهای مدیریت و تشخیص کلاهبرداری را ارتقاء دهد، حوزه‌ای که به دنبال افزایش تعداد معاملات آنلاین و موبایلی به مشکل خورده است.

    در عصر حاضر، سازمان‌ها نیاز به اجرای فرایندهایی دارند که در کمترین زمان ممکن و به درستی عملیات‌های کلاهبرداری را تشخیص دهند. لیو، اندراس سر و دنی مو (نویسندگان همکار) در گزارش خود تحت عنوان «هوش مصنوعی در حال متحول کردن فرایند مدیریت کلاهبرداری است» می‌گویند راه‌حل چنین سازمان‌هایی هوش مصنوعی است. این تحلیل‌گران در گزارش خود فن‌آوری‌های هوش مصنوعی و موارد کاربرد هر یک از آن‌ها را در فرایند مدیریت کلاهبرداری مشخص می‌کنند و مورد‌پژوهی‌های مرتبط را پیشنهاد می‌دهند.

    به گفته این تحلیل‌گران هوش مصنوعی می‌تواند مزایای بسیاری داشته باشد، اما سازمان‌هایی که از فن‌آوری هوش مصنوعی در فرایند تشخیص کلاهبرداری استفاده می‌کنند باید بدانند که این فن‌آوری خالی از چالش نیست.

    موارد کاربرد هوش مصنوعی در مدیریت کلاهبرداری

    این تحلیل‌گران در گزارش خود به مطالعه و بررسی تعدادی از موارد کاربرد هوش مصنوعی در حوزه مدیریت و تشخیص کلاهبرداری پرداخته‌اند. برای مثال، اینکه فن‌آوری هوش مصنوعی می‌تواند دقت را در فرایند کنترل معاملات افزایش دهد. این تحلیلگران در گزارش خبر از همکاری FIS (شرکت ارائه‌دهنده خدمات مالی) و Bringterion (شرکتی فعال در حوزه هوش مصنوعی که در مالکیت MasterCard قرار دهد) داده‌اند. هدف از این همکاری ارتقای قابلیت‌های مبارزه با پولشویی FIS اعلام شده است.

    هوش مصنوعی می‌تواند با ساده‌سازی و اولویت‌بندی هشدارها کارایی فرایندهای تحقیق و بررسی کلاهبرداری را افزایش دهد. علاوه بر این، پیش از انجام معاملات می‌توان از فن‌آوری هوش مصنوعی در تشخیص هویت بیومتریک کاربران استفاده کرد و تعداد معاملات نامعتبر را کاهش داد.

    Programming, computing and development concept. Close up of hands using laptop on abstract background with HTML code. Double exposure
    Programming, computing and development concept. Close up of hands using laptop on abstract background with HTML code. Double exposure

    به اعتقاد این تحلیل‌گران، بسته به کاربردی که هوش مصنوعی می‌تواند در فرایند مدیریت کلاهبرداری داشته باشد، به قابلیت‌های متفاوتی نیاز است و سازمان‌ها در زمان پیاده‌سازی هوش مصنوعی به منظور مدیریت و تشخیص کلاهبرداری نباید از این موضوع غافل شد. برای مثال، کنترل معاملات تجارت الکترونیک در مقایسه با گزارش معاملات به زمان پاسخگویی و دقت بیشتری نیاز دارند. دیگر قابلیت‌هایی که سازمان‌ها باید به آن‌ توجه داشته باشد، شامل دسترسی و دقت داده‌های آموزشی و اتخاذ فرایندهایی است که این اطمینان را به ما می‌دهند عملکرد مدل‌های هوش مصنوعی با گذشت زمان ارتقاء پیدا می‌کنند.

    مزایای استفاده از هوش مصنوعی در فرایند مدیریت کلاهبرداری

    پیاده‌سازی هوش مصنوعی در فرایند مدیریت کلاهبرداری دو مزیت عمده به همراه دارد. اول، کلاهبرداری در مدت زمان کمتری تشخیص داده می‌شود. دوم، با گذشت زمان دقت مدل‌های هوش مصنوعی افزایش پیدا می‌کند.

    به گفته لیو طی دو دهه گذشته، تعداد معاملات برخط و معاملاتی که از طریق تلفن‌های همراه انجام می‌شود به طور پیوسته افزایش داشته است و از زمان شروع همه‌گیری ویروس کرونا تعداد آن‌ها به طرز چشمگیری افزایش یافته است. به گفته لیو « اینگونه معاملات به صورت آنی انجام می‌شوند و این بدین معناست که عملیات‌های کلاهبرداری نیز با همین سرعت انجام می‌شوند.»

    در گذشته، تحلیل‌گران پس از پردازش معاملات متوجه خریدهای تقبلی می‌شدند. فن‌آوری هوش مصنوعی می‌تواند با تشخیص و جلوگیری از انجام فعالیت‌های کلاهبرداری و مسدود کردن کاربران و معاملات نامعتبر این فرایند را ارتقاء دهد.  برای مثال، اگر یکی از جنایتکاران سایبری تلاش کند با سرقت اطلاعات کارت بانکی فردی  خریدی انجام دهد، هوش مصنوعی آن را  تشخیص داده و مانع پردازش آن می‌شود. علاوه بر این، تشخیص کلاهبرداری مبتنی بر هوش مصنوعی با کاهش مبالغی که صرف بازپرداخت وجوه دزدیده شده می‌شود، هزینه‌های سازمان‌ها را کاهش می‌دهد.

    مدل‌های هوش مصنوعیسرعت تشخیص فرایندها و معاملات نامعتبر را افزایش می‌دهند. علاوه بر آن دقت این مدل‌ها با گذشت زمان افزایش می‌یابد. مدل‌های هوش مصنوعی برخلاف مدل‌های قاعده‌محور که ممکن است در صنعتی تعداد زیادی هشدار کاذب ایجاد کند، در طول زمان اعتماد افراد بیشتری را به خود جلب می‌کنند.

    به گفته لیو، «هر چه تعداد داده‌هایی که به مدل تغذیه می‌شود بیشتر باشد، مدل هوشمندتر می‌شود.»

    داده ها با تشخیص الگوها و تحلیل روابط میان دیتاست‌ها کارایی هوش مصنوعی را ارتقاء می‌دهند. افزایش دقت هوش مصنوعی به سازمان‌ها کمک می‌کند در مدت زمان کمتری به هشدارهایی که حاکی از عملیات‌های کلاهبرداری هستند، پاسخ دهند.

    چالش‌های فراوان هوش مصنوعی، اصولی که باید مد نظر داشته باشد

    گرچه هوش مصنوعی فن‌آوری‌ای تحول‌آفرین است، اما کماکان مستعد سوگیری، یکی از بزرگ‌ترین چالش‌های شناخته شده در این حوزه از فن‌آوری است. داده‌های نامتوازن و مهندسان ذهنی‌گرا (subjective) می‌توانند توانایی مدل‌های هوش مصنوعی در تشخیص کلاهبرداری را تضعیف کنند.

    به گفته لیو برای جلوگیری از این اتفاق، سازمان‌ها در هنگام پیاده‌سازی هوش مصنوعی در فرایندهای مدیریت و تشخیص کلاهبرداری باید به سه اصل توجه داشته باشند:

    • مدل‌های عینی. مدل‌های هوش مصنوعی باید عینی و بی‌طرف باشند. مدل‌های بایاس دقت پایینی دارند و همین امر موجب می‌شود کل مدل بالااستفاده بماند. پیشنهاد لیو ایجاد یک مدل دوگانه (hybrid) است. به گفته وی، «بهتر است سازمان‌ها برای ایجاد قابلیت‌های مدیریت کلاهبرداری و مبتنی بر هوش مصنوعی خود علاوه بر یک تیم داخلی متعهد، از یک شرکت‌ ارائه‌دهنده (خارج از سازمان خود) نیز کمک بگیرند.» اعضای سازمان از نیازهای شرکت (برای مثال، صنعت و قوانین) شناخت کافی دارند و در مقابل، شرکت‌های ارائه‌دهنده‌ی خارجی می‌توانند مدلی سفارشی‌سازی شده که به درستی آزمایش شده است را در اختیار آنان بگذارند.
    • منابع دست سوم. هرچه حجم داده‌ها بیشتر باش د، با گذشت زمان مدل‌های قوی‌تر و با سوگیری کمتر خواهیم داشت. پشنهاد لیو این است که در برای آموزش هوش مصنوعی از داده‌های متن باز استفاده کنیم. برای مثال، استفاده از داده‌های مؤسسات اعتباری به ارتقای عملکرد مدل‌هایی که در صنعت مالی به کار می‌روند، کمک می‌کند. برای شرکت‌هایی که نگران امنیت و حریم خصوصی کاربران هستند یادگیری یکپارچه گزینه مناسبی است. طبق این گزارش، در یادگیری یکپارچه چندین سازمان می‌توانند بدون تبادل داده‌های واقعی نتایج پردازش اولیه داده‌ها را با یکدیگر به اشتراک بگذارند.
    • ارتقای –  نه جایگزینی- تحلیل‌گران. هرچند مدل‌های هوش مصنوعی که به اندازه کافی آموزش دیده‌اند در جلوگیری از فعالیت‌های کلاهبرداری و نامعتبر مؤثر هستند، اما تحلیل‌گران کماکان باید هشدارها را بررسی کرده و برای اینکه مشخص کنند چرا محتوایی خاص نشان‌گذاری (flag) شده ، فرایند تحلیل را انجام دهند. تحلیل‌گران با بررسی هشدارها می‌توانند نسبت به نحوه یادگیری و کارکرد مدل‌های هوش مصنوعی شناخت پیدا کنند.

    بیشتر بخوانید

    موجودات بیگانه عصر جدید در فرآیند استخدام

    هوش مصنوعی در مدیریت کلاهبرداری

    به گفته لیو، در آینده، هوش مصنوعی نقش بسزایی در فرایند مدیریت و تشخیص کلاهبرداری خواهد داشت. اما، نرخ پیاده‌سازی هوش مصنوعی در شرکت‌ها، صنایع و کشورها متفاوت خواهد بود.

    به گفته‌ی وی، «فن‌آوری، خرده‌فروشی، تجارت الکترونیک، حوزه‌های مالی در اتخاذ مدل‌های مبتنی بر هوش مصنوعی در فرایند مدیریت و تشخیص کلاهبرداری پیشگام خواهند بود.» وی در ادامه گفت، صنایع متکی به فن‌آوری‌های دیجیتالی نسبت به صنایع دیگر بیشتر از هوش مصنوعی در فرایند مدیریت کلاهبرداری استفاده می‌کنند و به همین دلیل سریع‌تر می‌توانند مدل توسعه دهند. در صنایع سنتی ،همچون صنایع تولیدی، هوش مصنوعی به دلیل کمبود داده‌های دیجیتالی و تداول معاملات آفلاین با سرعت کمتری توسعه پیدا می‌کند.

    توسعه هوش مصنوعی برای مدیریت و تشخیص کلاهبرداری بر حسب منطقه نیز متفاوت خواهد بود. به گفته لیو، بازارهای نوظهور، به ویژه جنوب شرق آسیا و آفریقا، نسبت به کشورهای توسعه‌یافته برای مدت زمان بیشتری از خدمات تحلیل‌گران (انسان) متکی خواهند بود. وی در ادامه افزود، در کوتاه مدت، هزینه به‌کارگیری تحلیل‌گران در مناطقی که با سرعت کمتری هوش مصنوعی را پیاده‌سازی می‌کنند، کمتر می‌شود.

    لیو کسانی را که به هوش مصنوعی اعتماد ندارد تشویق می‌کند برای یک بار هم که شده از این فن‌آوری استفاده کنند. به گفته وی «پیاده‌سازی مدل‌های هوش مصنوعی می‌تواند مزایایی بسیاری برای شما (نسبت به رقبا) به همراه داشته باشد، پس شک و دودلی به خود راه ندهید.»

    انواع کاربردهای هوش مصنوعی در صنایع مختلف را در هوشیو بخوانید

    منبع: هوشیو

    ai-admin بازدید : 27 چهارشنبه 28 مهر 1400 نظرات (0)

    برخی ویژگی‌های ظاهری، مثل رنگ چشم یا پوست می‌توانند سرنخی از نژاد و قومیت افراد باشند. اما بدون این نشانه‌ها، تشخیص نژاد برای انسان‌ها کار آسانی نیست. با این حال، بر اساس پژوهشی جدید که هنوز مورد بازبینی قرار نگرفته، به نظر می‌رسد الگوریتم‌ها از پس انجام این کار برمی‌آیند.

    در این پژوهش، محققان پنج مدل متفاوت را روی تصاویر ایکس‌ری قسمت‌های مختلف بدن، از جمله سینه و دست‌ها، آموزش داده و این تصاویر را، بر اساس نژاد بیمار، برچسب زدند. سپس سیستم‌های یادگیری ماشین را به آزمایش گذاشتند تا عملکردشان در پیش‌بینی و تشخیص نژاد افراد از روی تصاویر پزشکی مشخص شود.

    عملکرد این سیستم‌ها به طرز باورناکردنی دقیق بود، طوری که ضعیف‌ترین سیستم در ۸۰ درصد مواقع پاسخ درست را ارائه می‌داد. طبق ادعای این مقاله، دقت بهترین سیستم ۹۹ درصد بود.

    نویسندگان هشدار داده‌اند: «با این آزمایشات نشان دادیم به راحتی می‌توان به سیستم‌های هوش مصنوعی آموزش داد تا هویت نژادی افراد را از روی تصاویر پزشکی تشخیص دهند. جداسازی این قابلیت از فناوری‌های دیگر و کاهش آن کار بسیار دشواری خواهد بود.

    ما به توسعه‌گرها، قانون‌گذاران و کاربرانی که با تحلیل تصاویر پزشکی سروکار دارند، قویاً پیشنهاد می‌کنیم در استفاده از مدل‌های یادگیری عمیق، نهایت احتیاط را به خرج دهند. تشخیص نژاد بیماران از روی تصاویر ایکس‌ری و سی‌تی اسکن کار بسیار آسانی است. این امکان می‌تواند به موقعیت‌های دیگر هم نفوذ کرده، به نابرابری‌های نژادی که در حوزه‌ی بهداشت و درمان به چشم می‌خورند دامن زده و آن‎ها را تداوم بخشد.»

    پارلمان بریتانیا در صدد منع ابزارهای جعل عمیق غیراخلاقی

    ماریا میلر ، عضور حزب محافظه‌کار پارلمان بیسنگ‌استوک ، معتقد است الگوریتم‌های یادگیری ماشین که تصاویر جعلی برهنه از افراد تولید می‌کنند، باید ممنوع شوند.

    این الگوریتم‌ها که با نام جعل عمیق شناخته می‌شوند متکی بر نرم‌افزارهای هوش مصنوعی هستند. ابزارهای جعل عمیقی روی اینترنت وجود دارند که به افراد منحرف اجازه می‌دهند با ورود تصویر یک نفر، تصویر جعلی برهنه‌ آن‌ها را تحویل بگیرند. این ابزارها چهره‌ی فرد را ثابت نگه می‌دارند و یک بدن ساختگی به آن اضافه می‌کنند.

    از جمله اقدامات میلر می‌توان به اعتراضات او علیه اخاذی با تصاویر شخصی اشاره کرد. وی معتقد است حتی اگر تصاویر تولید شده جعلی و غیرواقعی باشند، آسیبی که به قربانیان وارد می‌شود واقعی است.

    میلر در مصاحبه با Beeb، دستیار صوتی BBC، بیان کرد: «در حال حاضر، ساخت و توزیع عکس‌های شخصی، به صورت آنلاین یا با استفاده از فناوری‌های دیجیتال، بدون رضایت صاحب عکس غیرقانونی تلقی می‌شود.

    توزیع آنلاین تصاویر جنسی بدون رضایت فرد، باید جزو جرائم تجاوز جنسی حساب شود تا آسیبی که به زندگی افراد می‌زند را منعکس کند.» میلر قصد دارد این مسئله را در مذاکرات پارلمانی مطرح کند، به امید این‌که قوانین جدیدی برای منع نرم‌افزارهای جعل عمیق در لایحه‌ی امنیت آنلاین بریتانیا تصویب شود.

    سرک کشیدن فیس‌بوک در چت‌های خصوصی کاربران

    بخش هوش مصنوعی فیس بوک گروهی از مهندسان هوش مصنوعی را به کار گرفته تا بتواند پیام‌های رمزی را بدون رمزگشایی، تجزیه و تحلیل کند.
    طبق گزارش The Information، تکنیک رمزگذاری همریخت به شبکه‌های اجتماعی اجازه می‌دهد با سرک کشیدن به چت‌های کاربران در واتساپ، داده‌هایی را جمع‌آوری کنند که به تبلیغات هدفمند کمک می‌کند.

    با استفاده از رمزگذاری همریخت، فیسبوک می‌تواند محصولات و خدمات موردعلاقه‌ی افراد را تشخیص دهد. بدین طریق، به محض ورود افراد به حساب‌های کاربری‌شان، تبلیغات مربوطه به آن‌ها ارائه می‌شود.

    به نظر می‌رسد کریستین لاتنر سردمدار این اقدامات است؛ لاتنر متخصص رمزنگاری است که اخیراً، بعد از دو دهه مایکروسافت را ترک کرده و به عنوان سرپرست گروه تحقیقات هوش مصنوعی وست کاست به فیسبوک ملحق شده است. سخنگوی فیسبوک در مورد این پروژه گفته است: «هنوز برای پیاده‌سازی رمزنگاری همریخت در واتسپ خیلی زود است.»

    منبع: هوشیو

    ai-admin بازدید : 25 سه شنبه 27 مهر 1400 نظرات (0)

    آیا انسان‌ها در جهان هستی تنها هستند؟ این سؤال برای مدت زمانی طولانی، ذهن دانشمندان و طرفداران ژانر علمی تخیلی را به خود مشغول کرده است. حالا، بعد از مشاهده‌ی اشیاء ناشناس پرنده توسط خلبان‌های ارتش آمریکا، این پرسش دیرینه دوباره مطرح شده است، پرسشی که بدون شک همگی نسبت به پاسخش کنجکاویم. اما متخصصان جستجوی شغل که روزانه با انواع الگوریتم‌های پیچیده‌ی هوش مصنوعی کار می‌کنند، معتقدند موجودات بیگانه در میان ما حضور دارند؛ ولی به هیچ وجه شبیه آن‌چه در فیلم‌های تخیلی مثل مردان سیاه‌پوش (۱۹۹۷) می‌بینیم، نیستند.

    این موجودات بیگانه چه هستند؟ هوش مصنوعی. دلیل تشبیه موجودات بیگانه به هوش مصنوعی در این مقاله توضیح داده می‌شود. در این میان، به نحوه‌ی برقراری ارتباط با این موجودات نیز پرداخته می‌شود.

    اشیاء ناشناس پرنده

    وقتی صحبت از موجودات بیگانه می‌شود، عموم مردم به موجوداتی سبزرنگ و عجیب یا شبه‌انسانی فکر می‌کنند. این موجودات می‌توانند ربات باشند. به بیان دقیق‌تر، می‌توانیم هوش مصنوعی را جزو موجودات بیگانه بدانیم.

    شاید از خود بپرسید این چه ارتباطی با جستجوی شغل دارد؟ چند وقتی هست که فرآیند جذب متقاضیان به دست ربات‌ها انجام می‌شود، اما نه ربات‌های شبه‌انسانی؛ بلکه ATS یا سیستم‌های رهیابی متقاضی واحدهای منابع انسانی با استفاده از ATS، فرآیند استخدامی خود را مدیریت می‌کنند. هدف از ساخت ATS، غربال خیل عظیم متقاضیان، مرتب‌سازی و اولویت‌بندی آن‌ها به منظور شناسایی برترین و شایسته‌ترین افراد است. در این قسمت، برجسته‌ترین دلایل استفاده از این سیستم‌ها را مشاهده می‌کنید:

    • تعداد متقاضیان بالقوه را کاهش می‌دهد: وبسایت‌های جستجوی شغل و موتورهای جستجو میلیون‌ها آگهی شغلی پیش روی افرادی که به دنبال شغل هستند قرار می‌دهند. هرکسی که به اینترنت دسترسی داشته باشد می‌تواند با تنها چند کلیک برای این مشاغل درخواست بفرستد. در نتیجه‌ی این امر، تعداد زیادی تقاضانامه‌ی شغلی وارد واحدهای منابع انسانی می‌شود که بعضاً متعلق به افرادی هستند که هیچ صلاحیتی برای آن شغل ندارند. به گزارش Inc.، هر کدام از آگهی‌های شغلی این شرکت به صورت میانگین ۲۵۰ تقاضانامه دریافت می‌کنند که از این تعداد تنها ۴ تا ۶ مورد آن‌ها به مصاحبه منتهی می‌شوند. ATS با حذف متقاضیان ناشایسته، در امر جذب و گزینش به واحد منابع انسانی کمک می‌کند.

    • در واقع ATS از فرآیندهای استخدامی قدیمی ارزان‌تر و سریع‌تر است: همانطور که گفته شد، ATS تعداد متقاضیان بالقوه را کاهش می‌دهد و بدین طریق، به فرآیند استخدام سرعت بخشیده و بار کاری که بر دوش مدیران منابع انسانی است را تا حد چشمگیری کاهش می‌دهد. هرچه شرکت بزرگ‌تر بوده و آگهی‌های شغلی بیشتری داشته باشد، نقش ATS در کاهش پول و زمان موردنیاز پررنگ‌تر می‌شود.

    • در واقع ATS پیروی از قانون را آسان‌تر می‌کند: شرکت‌ها به کمک ATS راحت‌تر می‌توانند از قانون «ثبت سوابق متقاضی در اینترنت » پیروی کنند. هدف از وضع این قانون، کمک به وزارت کار آمریکا برای قانونمند کردن فرآیندهای جذب و گزینش به شیوه‌ی الکترونیکی بوده است. بر اساس این قانون، کسب و کارها، بسته به این‌که چه تعداد کارمند دارند، موظف‌اند اطلاعات جمعیت‌شناختی کارکنانی که جذب می‌کنند را به صورت سالانه گزارش دهند. ATS با ذخیره‌ی این اطلاعات، گزارش‌دهی را برای شرکت‌ها آسان‌تر می‌کند.

    با توجه به این مزایا، واضح است که به کارگیری این فناوری به کارآیی فرآیند استخدامی کمک می‌کند. ATS علاوه بر رتبه‌بندی متقاضیان، می‌تواند فرآیندهای فکری انسانی را نیز تقلید کند. این سیستم‌ها رزومه‌ها را ذخیره و متقاضیان را بر اساس شایستگی‌ها و صلاحیت‌شان غربال و رتبه‌بندی می‌کند؛ سپس، در کسری از ثانیه، بر اساس کلمات کلیدی مشخصی در بین رزومه‌ها جستجو و افراد مناسب را انتخاب می‌کند تا وارد مرحله‌ی بعدی، یعنی مصاحبه شوند.

    جستجوی استعدادهای برتر

    آرزوی همه‌ی کسب و کارها این است که بهترین افراد را از میان متقاضیان گزینش کرده و به جذب آن‌ها بپردازند. مدیران واحد منابع انسانی بر این نکته واقف‌اند که فرآیند جذب در دنیای مدرن، فرآیندی فعال است. بنابراین، هدف دعوت متقاضیان ایده‌آل است. نکته‌ی حیاتی، جذب متقاضیان و ورود آن‌ها به روال گزینشی است، فرآیندی که با تکیه بر روش‌های غربال و ارزیابی، برترین استعدادهای موجود را استخدام می‌کند.

    چالش‌های استفاده از ATS

    یک سوءبرداشت رایج در مورد به کارگیری سیستم‌های ATS در فرآیند جذب و گزینش وجود دارد و آن مربوط به رد متقاضیان به دست این سیستم‌هاست. به عبارت دیگر، نگرانی‌ها حاکی از این است که متقاضیان، با وجود در دست داشتن شایستگی‌های لازم، از طرف کارفرما رد می‌شوند.

    حال که می‌دانیم شرکت‌های استخدامی از سیستم‌های ATS استفاده می‌کنند و این سیستم‌ها بیشتر از این‌که انسان باشند، به موجودات بیگانه شباهت دارند، نتیجه می‌گیریم که برقراری ارتباط با این موجودات فرازمینی از اهمیت بالایی برخوردار است. اگر تا به حال فیلم‌های علمی-تخیلی تماشا کرده باشید حتماً می‌دانید که برقراری ارتباط درست با موجودات بیگانه چقدر مهم است: تنها یک کلمه می‌تواند همه‌ی کهکشان‌‌ها را نابود کند!

    بدترین اتفاق برای متقاضیان شغلی این است که ATS آن‌ها را رد کند. هدف هر متقاضی شایسته‌ای، رسیدن به مرحله‌ی مصاحبه‌ی کاری است؛ بدین منظور، رزومه‌ی او باید از ATS عبور کرده و به دست مدیر استخدام برسد. در هر صورت، شکست و فریب ATS کار چندان دشواری نیست؛ تنها کافی است با اساس قالب‌بندی رزومه آشنا باشید. آن‌چه در رزومه نمی‌آورید، از کلمات کلیدی هم اهمیت بیشتری دارند. به جای قالب‌بندی رسمی و مرتب رزومه، بر بیان هرچه بهتر مهارت‌ها، شایستگی‌ها و تجارب کاری مرتبط‌تان تمرکز کنید.

    سیستم‌های ATS متقاضیان مناسب و شایسته را شناسایی و قبول می‌کنند. نکته این‌جاست که بدانیم چطور با این سیستم‌ها ارتباط برقرار کنیم تا رزومه‌ی ما را رد نکنند.

    انواع کاربردهای هوش مصنوعی در صنایع مختلف را در هوشیو بخوانید

    منبع: هوشیو

    ai-admin بازدید : 27 دوشنبه 26 مهر 1400 نظرات (0)

    پیش از پرداختن به اهمیت کاهش سوگیری هوش مصنوعی در واحدهای منابع انسانی شرکت‌ها، باید به این موضوع اشاره کرد که بهره‌مندی از مزایای هوش مصنوعی و یادگیری ماشین در سراسر دنیا نهادینه شده است. این فناوری‌ها به کسب و کارها کمک می‌کنند تا فرآیندها را خودکار کرده، از طریق تجزیه و تحلیل داده‌ها، بینش و اطلاعات لازم را به دست آورده، و مشتریان و کارکنان خود را حفظ کنند. این فناوری امکان پاسخگویی به شرایط متغیر بازار، کاهش هزینه‌های عملیاتی، و حفظ مزیت رقابتی در دنیای دیجیتالی پویای امروزی را نیز فراهم می‌آورد.

    نقش منابع انسانی در درک و کاهش سوگیری هوش مصنوعی

    امروزه، بسیاری از فراهم‌آورندگان عمده‌ی سامانه‌های ابری، با ارائه‌ی قابلیت‌های هوش مصنوعی در بسته‌های خدماتی خود، این فناوری را در دسترس کسب و کارهایی قرار می‌دهند که بدون آن‌ها به سختی از پس پرداخت هزینه‌های استخدام مهندسان داده و متخصصان علوم داده بر می‌آیند.

    هوش مصنوعی بدون شک منبعی ارزشمند برای واحدهای HR (منابع انسانی) به شمار می‌رود. به عنوان مثال، آگهی‌ استخدامی تنها یک شغل می‌تواند صدها یا حتی هزاران متقاضی به دنبال داشته باشد؛ در این صورت، بازبینی دستی رزومه‌ها غیرممکن به نظر می‌رسد. تیم‌های منابع انسانی با تکیه بر فناوری‌های هوش مصنوعی و یادگیری ماشین می‌توانند متقاضیان را در مقیاسی بسیار وسیع‌تر ارزیابی و در مورد گزینش و استخدام تصمیم‌گیری کنند.

    بازتاب عدم کاهش سوگیری هوش مصنوعی در واحد منابع انسانی

    هوش مصنوعی مزایای فراوانی برای واحدهای منابع انسانی به ارمغان می‌آورد؛ با این حال، متخصصان این حوزه را با چالش‌ها و مشکلاتی جدی نیز روبرو می‌کند. یکی از مهم‌ترین و در عین حال دشوارترین جنبه‌هایی که در کار با سیستم‌های هوش مصنوعی باید مدنظر قرار داد، حصول اطمینان از عدم سوگیری این سیستم‌هاست.

    این امر در سیستم‌های هوش مصنوعی به کاررفته در واحدهای منابع انسانی اهمیت ویژه‌ای می‌یابد. چون این سوگیری‌ها می‌توانند منجر به تبعیض سازمان علیه برخی از متقاضیان شوند، امری که اغلب بدون آگاهی سازمان‌ها اتفاق می‌افتد.

    چندین سال قبل، آمازون به ناچار سیستم هوش مصنوعی که برای غربال رزومه به کار می‌برد را از دور خارج کرد. چون علیه متقاضیان خانم سوگیری داشت. این مثال هرچند ناخوشایند، مصداق بارز تأثیر داده‌های آموزشی است. الگوریتم این سیستم روی داده‌های خود شرکت آمازون آموزش دیده بود. از آن‌جایی که در آن زمان، بیشتر کارکنان آمازون مرد بودند، سیستم بین «موفقیت» با کلماتی ارتباط برقرار کرد که سوگیری داشته و بیشتر مردانه بودند.

    بدین ترتیب، مدل به متقاضیان خانم، هرچند شایسته، توجهی نشان نمی‌داد. درسی که می‌توان از این ماجرا گرفت این است که اگر مدل‌های هوش مصنوعی را با داده‌های سوگیرانه آموزش دهیم، سیستم هوش مصنوعی نهایی نیز سوگیری داشته و این سوگیری را پیوسته تقویت خواهد کرد.

    لزوم بازبینی فرهنگ سازمانی در کنار سیستم‌های هوش مصنوعی برون‌سپاری شده

    در مثال بالا از شرکت آمازون، سیستم هوش مصنوعی به کاررفته برای غربال رزومه‌ها درون‌سازمانی بود و با استفاده از داده‌های متقاضیان خود شرکت آموزش دیده بود. این در حالی است که بیشتر شرکت‌ها منابع لازم برای ساخت سیستم‌های هوش مصنوعی داخلی برای واحدهای منابع انسانی را در دست ندارند. به همین خاطر، تیم‌های منابع انسانی این کار را به شرکت‌هایی همچون Workday و Google Cloud برون‌سپاری می‌کنند. متأسفانه، بسیاری از اوقات، این کار اجازه‌ی دقت و پاسخگویی را از شرکت‌ها می‌گیرد.

    در عصر حاضر بیشتر از هر زمان دیگری لازم است تا تیم‌های هوش مصنوعی، مسئولیت سنگینی که این گونه برون‌سپاری‌ها به همراه دارد را به رسمیت بشناسند. متخصصان داخل شرکت نباید مدل‌های هوش مصنوعی بیرونی را کورکورانه پذیرفته و اجرا کنند. واحد منابع انسانی باید به صورت مکرر این سیستم‌ها را مورد بازبینی قرار دهد تا از عدم سوگیری آن‌ها اطمینان حاصل کند. بدین منظور، چندین سؤال باید پیوسته پاسخ داده شوند:

    • داده‌های آموزشی مدل‌ها از چه منبعی به دست می‌آیند؟
    • مدل با تکیه بر چه عواملی تصمیم‌گیری می‌کند؟
    • آیا نتایج به دست آمده رضایت‌بخش هستند؟ یا این‌که باید سیستم را موقتاً از دور خارج کرد و مجدداً مورد ارزیابی قرار داد؟

    بازبینی دقیق داده‌های آموزشی، به ویژه در سیستم‌های هوش مصنوعی برون‌سپاری شده، از اهمیت بالایی برخوردار است. با این حال، انجام این کار به تنهایی برای کاهش سوگیری کافی نیست؛ چون داده‌های سوگیرانه از محیط‌های کاری سوگیرانه نشأت می‌گیرند.

    تیم‌های منابع انسانی موظف‌اند در جهت کاهش سوگیری اقدام کنند و هرگونه بی‌عدالتی که در سازمان مشاهده می‌کنند را به دقت تحت نظر قرار دهند. برای مثال، آیا مردان قدرت بیشتری از زنان در دست دارند؟ چه قوانین و دستورهایی از قدیم پذیرفته‌ شده‌اند، اما سؤال‌برانگیز به نظر می‌آیند؟ آیا کارکنانی که متعلق به گروه‌های محروم هستند، فرصت‌های لازم برای موفقیت را در اختیار دارند؟

    گوناگونی، برابری و دربرگیرندگی سه عنصر فرهنگ سازمانی هستند که در به کارگیری هوش مصنوعی نقشی ضروری دارند. چون به سیستم‌های هوش مصنوعی جهت داده و بر نحوه‌ی پیاده‌سازی نتایج تأثیر می‌گذارند. نکته‌ای که باید به خاطر داشت این است که هوش مصنوعی خودش نمی‌داند سوگیری دارد یا نه، تشخیص این مسئله بر عهده‌ی ماست.

    سه مورد از بهترین کاربردهای هوش مصنوعی، عادلانه و بدون سوگیری

    تیم‌های منابع انسانی باید بتوانند حد و حدود قابلیت‌های سیستم‌های هوش مصنوعی‌شان را بشناسند. این کار نیازی به تخصص در حوزه‌های فناوری یا شناخت الگوریتم‌های زیربنایی هوش مصنوعی ندارد.

    بلکه آن‌چه تیم منابع انسانی باید بداند این است که چه نوع سوگیری‌هایی ممکن است در داده‌های آموزشی ظاهر شوند، سوگیری‌ها چطور می‌توانند به فرهنگ سازمانی رخنه کنند و سیستم‌های هوش مصنوعی چطور به این سوگیری‌ها دامن زده و آن‌ها را تداوم می‌بخشند.

    در این قسمت، سه تاکتیک که در به کارگیری عادلانه و غیرسوگیرانه‌ی هوش مصنوعی به واحدهای منابع انسانی کمک می‌کنند را با هم مرور می‌کنیم:

    1. حسابرسی منظم سیستم هوش مصنوعی: فارغ از این‌که سیستم‌ها داخلی باشند یا برون‌سپاری‌شده، ضروری است داده‌های آموزشی و نتایج نهایی مورد بازبینی قرار گیرند. پاسخ این سؤالات را پیدا کنید: آیا دیتاست به اندازه‌ی کافی بزرگ و متنوع هست؟ آیا اطلاعات مربوط به گروه‌های محروم (به خصوص از نظر نژادی و جنسیتی) در این دیتاست وجود دارد؟ اگر نتایج سیستم رضایت‌بخش نبودند، راهی به جز کنار گذاشتن و برنامه‌ریزی مجددش وجود ندارد.
    2. درک زنجیره‌ی تأمین داده: هنگام استفاده از سیستم‌های هوش مصنوعی آماده به کار و برون‌سپاری‌شده باید به این نکته دقت داشت که سوگیری‌های فروشنده یا دیتاست‌های شخص ثالث در داده‌های آموزشی رخنه نکرده باشد.
    3. استفاده از هوش مصنوعی برای ارتقای نیروی انسانی، نه جایگزینی آن: قابلیت‌های هوش مصنوعی با سرعتی نمایی در حال رشد هستند؛ اما واقعیت این است که هوش مصنوعی همچنان باید تحت مدیریت و نظارت قرار داشته باشد. با توجه به ریسک‌های موجود، تیم‌های منابع انسانی باید برای ارتقای عملکرد نیروهای خود، و نه جایگزین کردن آن‌ها، از هوش مصنوعی استفاده کنند. نباید فراموش کرد این انسان‌ها هستند که همچنان تصمیمات نهایی منابع انسانی و استخدامی را می‌گیرند.

    هوش مصنوعی و کمک به واحد منابع انسانی در افشای نابرابری‌های سازمانی

    تیم‌های منابع انسانی بهتر از هرکس دیگری در جریان سوگیری‌ها و نابرابری‌های موجود در سازمان هستند. به همین دلیل است که سهم پررنگی در به کارگیری فناوری‌های هوش مصنوعی علیه این مشکلات بر عهده دارند.

    بدین منظور، لازم است مسئولیت‌هایی که به کارگیری این سیستم‌ها به همراه می‌آورد را شناخته و پیوسته، آموزش و نتایج آن‌ها را مورد بازبینی قرار دهید.

    در صورت کاربرد درست، هوش مصنوعی، به جای تداوم بخشیدن به سوگیری‌ها، به شناسایی آن‌ها کمک می‌کند. هوش مصنوعی در افزایش کارآیی و کارآمدی وظایف و مسئولیت‌های منابع انسانی نیز نقش دارد و عملکرد متقاضیان شایسته و کارکنان ارزشمند را بهبود می‌بخشد.

    منبع: هوشیو

    تعداد صفحات : 8

    اطلاعات کاربری
  • فراموشی رمز عبور؟
  • آرشیو
    آمار سایت
  • کل مطالب : 287
  • کل نظرات : 0
  • افراد آنلاین : 2
  • تعداد اعضا : 0
  • آی پی امروز : 2
  • آی پی دیروز : 24
  • بازدید امروز : 4
  • باردید دیروز : 34
  • گوگل امروز : 0
  • گوگل دیروز : 0
  • بازدید هفته : 38
  • بازدید ماه : 550
  • بازدید سال : 7,620
  • بازدید کلی : 33,491