آیا ما عجله داریم آزمایشگاه یادگیری ماشین با هوش مصنوعی؟



ظهور آزمایشگاه‌های خودران و آزمایش‌های خودکار نوید افزایش بهره‌وری و اکتشافات در شیمی را فراتر از آنچه که انسان به تنهایی می‌توانست به دست آورد، به همراه داشت. اما ماهیت جعبه سیاه هوش مصنوعی به این معنی است که ما نمی‌توانیم ببینیم چگونه یا چرا سیستم‌های یادگیری عمیق تصمیم‌گیری می‌کنند، درک اینکه چگونه می‌توان از آن برای بهینه‌سازی تحقیقات به بهترین شکل استفاده کرد یا اصلاً می‌توان به نتایج اعتماد کرد، دشوار می‌شود .

در نوامبر 2023 مقاله ای در منتشر شد طبیعت گزارش کشف بیش از 40 ماده جدید با استفاده از یک آزمایشگاه خودمختار با هدایت هوش مصنوعی. با این حال، محققان به سرعت نتایج آزمایشگاه خودگردان را زیر سوال بردند. یک پیش چاپ در ژانویه دنبال شد که گزارش می دهد که “خطاهای سیستماتیک در تمام طول مسیر” به دلیل مشکلات کار محاسباتی و تجربی وجود دارد.

یکی از نویسندگان نقد، رابرت پالگریوشیمیدان مواد در دانشگاه کالج لندن، بریتانیا، گفت که در حالی که هوش مصنوعی “پیشرفت زیادی” داشته است، “تا حدودی تمایل” وجود دارد که احساس کنیم هوش مصنوعی باید همه چیز را “در حال حاضر” تغییر دهد و ما واقعاً نباید انتظار داشته باشیم. همه چیز یک شبه تغییر می کند

روبات ها

میلاد ابوالحسنیاو که رهبری یک گروه تحقیقاتی را بر عهده دارد که از آزمایش‌های رباتیک مستقل برای مطالعه استراتژی‌های شیمی جریان در دانشگاه ایالتی کارولینای شمالی در ایالات متحده استفاده می‌کند، می‌گوید وقتی صحبت از هوش مصنوعی به میان می‌آید «سر و صدا» تا حدودی غالب شده است و زمان آن فرا رسیده است که متوقف شود. “به عنوان انسان، ما در تصور اینکه آینده چگونه خواهد بود و چه امکاناتی وجود دارد، عالی هستیم، اما … شما باید یک قدم در یک زمان حرکت کنید و مطمئن شوید که کارها به درستی انجام می شوند.”

خطرات تکیه بر هوش مصنوعی

برای بسیاری، جذابیت هوش مصنوعی ناشی از نیاز به بهبود بهره وری است. توضیح می‌دهد: «چه بررسی سریع‌تر ادبیات، آزمایش‌های در حال اجرا سریع‌تر، تولید سریع‌تر داده‌ها، نتایج عملکرد هوش مصنوعی بسیار جذاب هستند». لیزا مسری، یک انسان شناس در دانشگاه ییل در ایالات متحده. “و این به فشار نهادی برای انتشار، انجام تحقیقات شما مربوط می شود، بنابراین شما می توانید همه کارهای دیگری را که باید انجام دهید، انجام دهید.”

مسری می گوید هوش مصنوعی چشم انداز جذاب «وعده عینیت» را نیز دارد – این ایده که دانشمندان همیشه به دنبال ابزارهایی هستند که معتقدند قوی هستند و تعصب و دخالت انسان را محدود می کنند. در حالی که هوش مصنوعی واقعاً می تواند این مزایا را برای برخی تحقیقات فراهم کند، خطرات مرتبط با اتکای بیش از حد به آن و نیاز به یادآوری اهمیت گنجاندن طیف متنوعی از متفکران در تولید دانش علمی وجود دارد. و البته، مدل‌های هوش مصنوعی فقط به اندازه داده‌هایی هستند که آنها را آموزش می‌دهند.

عجله برای همه برای شروع به انجام علومی که به خوبی برای ابزارهای هوش مصنوعی مناسب است وجود دارد

مولی کروکت، دانشگاه پرینستون

برای مسری و همکارش مولی کروکتیک عصب شناس از دانشگاه پرینستون در ایالات متحده، که دیدگاهی در مورد این موضوع در نویسندگی مشترک داشت طبیعت، ریسک‌ها به سه دسته تقسیم می‌شوند، که همگی از «توهم درک» ناشی می‌شوند، یک پدیده کاملاً مستند در علوم شناختی مربوط به تمایل ما به بیش‌ازحد برآورد کردن میزان درک ما از چیزی است.

کراکت توضیح می‌دهد: «اولین خطر زمانی رخ می‌دهد که یک دانشمند سعی می‌کند با استفاده از یک ابزار هوش مصنوعی مشکلی را حل کند، و چون ابزار هوش مصنوعی عملکرد خوبی دارد، دانشمند به اشتباه معتقد است که جهان را بهتر از آنچه که واقعاً می‌شناسد، درک می‌کند.

دو مورد دوم به دانشمندان به عنوان یک جمع و ایجاد ناخواسته یک “تک فرهنگ” علمی مربوط می شود. Crockett توضیح می دهد: “اگر شما فقط یک نوع محصول را در یک تک کشت بکارید، بسیار کارآمد و مولد است، اما همچنین محصول را در برابر بیماری ها و آفات آسیب پذیرتر می کند.”

او ادامه می دهد: «ما نگران دو نوع تک کشت هستیم. اولین مورد، تک‌فرهنگ «دانستن» است – ما می‌توانیم از بسیاری از رویکردهای مختلف برای حل مشکلات در علم استفاده کنیم، و هوش مصنوعی یک رویکرد است… اما به دلیل دستاوردهای بهره‌وری که ابزارهای هوش مصنوعی وعده داده‌اند، عجله‌ای برای همه وجود دارد که این کار را شروع کنند. این نوع علم که برای ابزارهای هوش مصنوعی مناسب است… [and the] سوالاتی که کمتر برای ابزارهای هوش مصنوعی مناسب هستند نادیده گرفته می شوند.

آنها همچنین نگران توسعه یک تک‌فرهنگ «دانش‌مندان» هستند، جایی که به جای استفاده از دانش کل تیم با تنوع انضباطی و شناختی، فقط از ابزارهای هوش مصنوعی استفاده می‌شود. Crockett می گوید: «ما می دانیم که اگر در حال حل یک مشکل پیچیده هستید، داشتن تیم های بین رشته ای واقعا مفید است.

اگر افرادی را در تیم خود داشته باشید که از پیشینه های بسیار متفاوت هستند یا مجموعه مهارت های متفاوتی دارند … در عصری که ما به طور فزاینده ای از تعاملات انسانی به نفع تعاملات دیجیتالی اجتناب می کنیم … می تواند وسوسه انگیز باشد که همکاران را جایگزین کنید. ابزارهای هوش مصنوعی … [but] این یک عمل واقعا خطرناک است، زیرا دقیقاً در این موارد است که تجربه کافی ندارید که کمتر قادر خواهید بود تشخیص دهید که آیا نتایج برگردانده شده توسط هوش مصنوعی واقعا معتبر هستند یا خیر.

راه حل ها چیست؟

سوال این است که چگونه می‌توانیم ابزارهای مبتنی بر هوش مصنوعی مانند آزمایشگاه‌های خودران را برای پاسخ به سؤالات تحقیقاتی خاص طراحی کنیم؟ ابوالحسنی و همکارش از دانشگاه دولتی NC، آماندا وولکبه تازگی هفت شاخص عملکرد را برای کمک به “آزاد کردن” قدرت آزمایشگاه های خودگردان تعریف می کند – چیزی که او از اینکه دیگر در ادبیات منتشر شده وجود ندارد، شوکه شد.

او می‌گوید: «این معیارها حول این ایده طراحی شده‌اند که ما می‌خواهیم عامل یادگیری ماشینی آزمایشگاه‌های خودران تا حد ممکن قدرتمند باشد تا به ما در تصمیم‌گیری آگاهانه‌تر کمک کند. او می افزاید، با این حال، اگر داده هایی که آزمایشگاه روی آنها آموزش دیده است از کیفیت کافی برخوردار نباشد، تصمیماتی که آزمایشگاه می گیرد مفید نخواهد بود.

بسیاری از آزمایشگاه‌های مستقل حتی به میزان مصرف کل مواد شیمیایی در هر آزمایش اشاره نمی‌کنند

میلاد ابوالحسنی، دانشگاه ایالتی کارولینای شمالی

شاخص‌های عملکردی که آن‌ها توصیف می‌کنند شامل میزان استقلال است که میزان نفوذ یک فرد بر سیستم را نشان می‌دهد. عمر خدمات؛ توان عملیاتی؛ دقت تجربی؛ استفاده از مواد؛ فضای پارامتر قابل دسترسی که گستره پارامترهای آزمایشی قابل دسترسی را نشان می دهد. و راندمان بهینه سازی یا عملکرد کلی سیستم.

“وقتی جست و جوی متون انجام دادیم متعجب شدیم که 95 درصد از مقالات مربوط به آزمایشگاه های خودران گزارش ندادند که چه مدت می توانند سکو را قبل از خراب شدن کار کنند. [or] قبل از اینکه مجبور شوند چیزی را پر کنند،» او توضیح می دهد. “من می خواهم بدانم این آزمایشگاه خودران در هر ساعت چند آزمایش می تواند انجام دهد … عملکرد آزمایش چقدر دقیق است … چقدر می توانم به داده هایی که شما تولید می کنید اعتماد کنم؟”

بسیاری از آزمایشگاه‌های خود مدیریت حتی به میزان کل مصرف مواد شیمیایی خود اشاره نمی‌کنند [was] آزمایش و بهینه‌سازی که آنها انجام داده‌اند.”

ابوالحسنی و ولک می گویند که با محاسبه شفاف این معیارها، می توان تحقیقات را به سمت حوزه های فناوری مولدتر و امیدوارکننده تر هدایت کرد و بدون ارزیابی کامل آزمایشگاه های خودران، این حوزه فاقد اطلاعات مورد نیاز برای هدایت تحقیقات آینده خواهد بود.

با این حال، بهینه سازی نقشی که هوش مصنوعی می تواند در زمینه های پیچیده ای مانند شیمی مصنوعی ایفا کند، به چیزی بیش از طبقه بندی بهبود یافته و مقادیر بیشتری از داده نیاز دارد. در اخیر مقاله که در مجله انجمن شیمی آمریکاشیمیدان دیجیتال فلیکس استریت-کالتوف، همراه با پیشگامان شیمی هوش مصنوعی مانند آلن آسپورو-گوزیک، فرانک گلوریوس، و بارتوش گرزبووسکی، استدلال کردند که طراحان الگوریتم باید روابط نزدیک‌تری با شیمیدانان مصنوعی ایجاد کنند تا از دانش تخصصی خود استفاده کنند.

آنها استدلال می‌کنند که چنین همکاری‌هایی برای دو طرف مفید خواهد بود و به شیمیدان‌های مصنوعی اجازه می‌دهد تا مدل‌های هوش مصنوعی را برای مشکلات مصنوعی مورد علاقه خاص توسعه دهند، “پیوند دانش هوش مصنوعی در جامعه مصنوعی”.

نگاه به آینده

برای ابوالحسنی، موفقیت آزمایش‌های خودمختار در شیمی در نهایت به اعتماد خواهد بود. «آزمایش خودکار ابزاری است که می‌تواند به دانشمندان کمک کند… [but] برای انجام این کار، سخت افزار باید قابل تکرار و قابل اعتماد باشد،” او توضیح می دهد.

این برای جامعه برای گسترش پایگاه کاربر ضروری است

میلاد ابوالحسنی، دانشگاه ایالتی کارولینای شمالی

و برای ایجاد این اعتماد، موانع ورود باید کاهش یابد تا شیمیدانان بیشتری بتوانند از آزمایشگاه های خودگردان در کار خود استفاده کنند. او توضیح می‌دهد: «این باید تا حد امکان شهودی باشد تا شیمیدان‌هایی که تجربه‌ای در آزمایش‌های خودمختار ندارند بتوانند با آزمایشگاه‌های خودران تعامل داشته باشند.

علاوه بر این، او می‌گوید، بهترین آزمایشگاه‌های خود نیرو در حال حاضر بسیار گران هستند، بنابراین گزینه‌های کم‌هزینه‌تر باید با حفظ قابلیت اطمینان و تکرارپذیری توسعه داده شوند. او می‌گوید: «برای جامعه باید پایگاه کاربران را گسترش دهد.

‘یک بار [self-driving labs] تبدیل شدن به یک ابزار اصلی در شیمی [they] می‌تواند به ما کمک کند شیمی و علم مواد را دیجیتالی کنیم و دسترسی به داده‌های تجربی با کیفیت بالا را فراهم کنیم… اما قدرت این داده‌های تخصصی زمانی است که داده‌ها قابل تکرار، قابل اعتماد و استاندارد برای استفاده همه باشند.»

مسری بر این باور است که هوش مصنوعی زمانی بسیار مفید خواهد بود که تنها به عنوان یک مکمل برای انسان نگاه شود، نه جایگزین. او می گوید که برای انجام این کار، جامعه باید در مورد زمان و مکان استفاده بسیار دقیق تر باشد. او می افزاید: “من بسیار مطمئن هستم که دانشمندان خلاق می توانند مواردی را ارائه دهند که در آن می توان این کار را مسئولانه و سازنده به کار برد.”

Crockett پیشنهاد می کند که دانشمندان ابزارهای هوش مصنوعی را به عنوان رویکرد دیگری برای تجزیه و تحلیل داده ها در نظر بگیرند – رویکردی که با ذهن انسان متفاوت است. او می‌گوید: «تا زمانی که به آن احترام بگذاریم… پس می‌توانیم رویکرد خود را با ترکیب این ابزارها به‌عنوان گره متنوع دیگری در شبکه تقویت کنیم».

مهمتر از همه، کروکت می‌گوید که این لحظه می‌تواند به عنوان یک زنگ بیدارباش برای فشارهای سازمانی باشد که ممکن است دانشمندان هوش مصنوعی را مجبور به بهبود «عملکرد بدون درک بیشتر» کند. اما این مشکل بسیار بزرگتر از هر فرد دیگری است و قبل از یافتن راه حلی نیاز به پذیرش گسترده نهادی دارد.



Source link