ظهور آزمایشگاههای خودران و آزمایشهای خودکار نوید افزایش بهرهوری و اکتشافات در شیمی را فراتر از آنچه که انسان به تنهایی میتوانست به دست آورد، به همراه داشت. اما ماهیت جعبه سیاه هوش مصنوعی به این معنی است که ما نمیتوانیم ببینیم چگونه یا چرا سیستمهای یادگیری عمیق تصمیمگیری میکنند، درک اینکه چگونه میتوان از آن برای بهینهسازی تحقیقات به بهترین شکل استفاده کرد یا اصلاً میتوان به نتایج اعتماد کرد، دشوار میشود .
در نوامبر 2023 مقاله ای در منتشر شد طبیعت گزارش کشف بیش از 40 ماده جدید با استفاده از یک آزمایشگاه خودمختار با هدایت هوش مصنوعی. با این حال، محققان به سرعت نتایج آزمایشگاه خودگردان را زیر سوال بردند. یک پیش چاپ در ژانویه دنبال شد که گزارش می دهد که “خطاهای سیستماتیک در تمام طول مسیر” به دلیل مشکلات کار محاسباتی و تجربی وجود دارد.
یکی از نویسندگان نقد، رابرت پالگریوشیمیدان مواد در دانشگاه کالج لندن، بریتانیا، گفت که در حالی که هوش مصنوعی “پیشرفت زیادی” داشته است، “تا حدودی تمایل” وجود دارد که احساس کنیم هوش مصنوعی باید همه چیز را “در حال حاضر” تغییر دهد و ما واقعاً نباید انتظار داشته باشیم. همه چیز یک شبه تغییر می کند
میلاد ابوالحسنیاو که رهبری یک گروه تحقیقاتی را بر عهده دارد که از آزمایشهای رباتیک مستقل برای مطالعه استراتژیهای شیمی جریان در دانشگاه ایالتی کارولینای شمالی در ایالات متحده استفاده میکند، میگوید وقتی صحبت از هوش مصنوعی به میان میآید «سر و صدا» تا حدودی غالب شده است و زمان آن فرا رسیده است که متوقف شود. “به عنوان انسان، ما در تصور اینکه آینده چگونه خواهد بود و چه امکاناتی وجود دارد، عالی هستیم، اما … شما باید یک قدم در یک زمان حرکت کنید و مطمئن شوید که کارها به درستی انجام می شوند.”
خطرات تکیه بر هوش مصنوعی
برای بسیاری، جذابیت هوش مصنوعی ناشی از نیاز به بهبود بهره وری است. توضیح میدهد: «چه بررسی سریعتر ادبیات، آزمایشهای در حال اجرا سریعتر، تولید سریعتر دادهها، نتایج عملکرد هوش مصنوعی بسیار جذاب هستند». لیزا مسری، یک انسان شناس در دانشگاه ییل در ایالات متحده. “و این به فشار نهادی برای انتشار، انجام تحقیقات شما مربوط می شود، بنابراین شما می توانید همه کارهای دیگری را که باید انجام دهید، انجام دهید.”
مسری می گوید هوش مصنوعی چشم انداز جذاب «وعده عینیت» را نیز دارد – این ایده که دانشمندان همیشه به دنبال ابزارهایی هستند که معتقدند قوی هستند و تعصب و دخالت انسان را محدود می کنند. در حالی که هوش مصنوعی واقعاً می تواند این مزایا را برای برخی تحقیقات فراهم کند، خطرات مرتبط با اتکای بیش از حد به آن و نیاز به یادآوری اهمیت گنجاندن طیف متنوعی از متفکران در تولید دانش علمی وجود دارد. و البته، مدلهای هوش مصنوعی فقط به اندازه دادههایی هستند که آنها را آموزش میدهند.
عجله برای همه برای شروع به انجام علومی که به خوبی برای ابزارهای هوش مصنوعی مناسب است وجود دارد
مولی کروکت، دانشگاه پرینستون
برای مسری و همکارش مولی کروکتیک عصب شناس از دانشگاه پرینستون در ایالات متحده، که دیدگاهی در مورد این موضوع در نویسندگی مشترک داشت طبیعت، ریسکها به سه دسته تقسیم میشوند، که همگی از «توهم درک» ناشی میشوند، یک پدیده کاملاً مستند در علوم شناختی مربوط به تمایل ما به بیشازحد برآورد کردن میزان درک ما از چیزی است.
کراکت توضیح میدهد: «اولین خطر زمانی رخ میدهد که یک دانشمند سعی میکند با استفاده از یک ابزار هوش مصنوعی مشکلی را حل کند، و چون ابزار هوش مصنوعی عملکرد خوبی دارد، دانشمند به اشتباه معتقد است که جهان را بهتر از آنچه که واقعاً میشناسد، درک میکند.
دو مورد دوم به دانشمندان به عنوان یک جمع و ایجاد ناخواسته یک “تک فرهنگ” علمی مربوط می شود. Crockett توضیح می دهد: “اگر شما فقط یک نوع محصول را در یک تک کشت بکارید، بسیار کارآمد و مولد است، اما همچنین محصول را در برابر بیماری ها و آفات آسیب پذیرتر می کند.”
او ادامه می دهد: «ما نگران دو نوع تک کشت هستیم. اولین مورد، تکفرهنگ «دانستن» است – ما میتوانیم از بسیاری از رویکردهای مختلف برای حل مشکلات در علم استفاده کنیم، و هوش مصنوعی یک رویکرد است… اما به دلیل دستاوردهای بهرهوری که ابزارهای هوش مصنوعی وعده دادهاند، عجلهای برای همه وجود دارد که این کار را شروع کنند. این نوع علم که برای ابزارهای هوش مصنوعی مناسب است… [and the] سوالاتی که کمتر برای ابزارهای هوش مصنوعی مناسب هستند نادیده گرفته می شوند.
آنها همچنین نگران توسعه یک تکفرهنگ «دانشمندان» هستند، جایی که به جای استفاده از دانش کل تیم با تنوع انضباطی و شناختی، فقط از ابزارهای هوش مصنوعی استفاده میشود. Crockett می گوید: «ما می دانیم که اگر در حال حل یک مشکل پیچیده هستید، داشتن تیم های بین رشته ای واقعا مفید است.
اگر افرادی را در تیم خود داشته باشید که از پیشینه های بسیار متفاوت هستند یا مجموعه مهارت های متفاوتی دارند … در عصری که ما به طور فزاینده ای از تعاملات انسانی به نفع تعاملات دیجیتالی اجتناب می کنیم … می تواند وسوسه انگیز باشد که همکاران را جایگزین کنید. ابزارهای هوش مصنوعی … [but] این یک عمل واقعا خطرناک است، زیرا دقیقاً در این موارد است که تجربه کافی ندارید که کمتر قادر خواهید بود تشخیص دهید که آیا نتایج برگردانده شده توسط هوش مصنوعی واقعا معتبر هستند یا خیر.
راه حل ها چیست؟
سوال این است که چگونه میتوانیم ابزارهای مبتنی بر هوش مصنوعی مانند آزمایشگاههای خودران را برای پاسخ به سؤالات تحقیقاتی خاص طراحی کنیم؟ ابوالحسنی و همکارش از دانشگاه دولتی NC، آماندا وولکبه تازگی هفت شاخص عملکرد را برای کمک به “آزاد کردن” قدرت آزمایشگاه های خودگردان تعریف می کند – چیزی که او از اینکه دیگر در ادبیات منتشر شده وجود ندارد، شوکه شد.
او میگوید: «این معیارها حول این ایده طراحی شدهاند که ما میخواهیم عامل یادگیری ماشینی آزمایشگاههای خودران تا حد ممکن قدرتمند باشد تا به ما در تصمیمگیری آگاهانهتر کمک کند. او می افزاید، با این حال، اگر داده هایی که آزمایشگاه روی آنها آموزش دیده است از کیفیت کافی برخوردار نباشد، تصمیماتی که آزمایشگاه می گیرد مفید نخواهد بود.
بسیاری از آزمایشگاههای مستقل حتی به میزان مصرف کل مواد شیمیایی در هر آزمایش اشاره نمیکنند
میلاد ابوالحسنی، دانشگاه ایالتی کارولینای شمالی
شاخصهای عملکردی که آنها توصیف میکنند شامل میزان استقلال است که میزان نفوذ یک فرد بر سیستم را نشان میدهد. عمر خدمات؛ توان عملیاتی؛ دقت تجربی؛ استفاده از مواد؛ فضای پارامتر قابل دسترسی که گستره پارامترهای آزمایشی قابل دسترسی را نشان می دهد. و راندمان بهینه سازی یا عملکرد کلی سیستم.
“وقتی جست و جوی متون انجام دادیم متعجب شدیم که 95 درصد از مقالات مربوط به آزمایشگاه های خودران گزارش ندادند که چه مدت می توانند سکو را قبل از خراب شدن کار کنند. [or] قبل از اینکه مجبور شوند چیزی را پر کنند،» او توضیح می دهد. “من می خواهم بدانم این آزمایشگاه خودران در هر ساعت چند آزمایش می تواند انجام دهد … عملکرد آزمایش چقدر دقیق است … چقدر می توانم به داده هایی که شما تولید می کنید اعتماد کنم؟”
بسیاری از آزمایشگاههای خود مدیریت حتی به میزان کل مصرف مواد شیمیایی خود اشاره نمیکنند [was] آزمایش و بهینهسازی که آنها انجام دادهاند.”
ابوالحسنی و ولک می گویند که با محاسبه شفاف این معیارها، می توان تحقیقات را به سمت حوزه های فناوری مولدتر و امیدوارکننده تر هدایت کرد و بدون ارزیابی کامل آزمایشگاه های خودران، این حوزه فاقد اطلاعات مورد نیاز برای هدایت تحقیقات آینده خواهد بود.
با این حال، بهینه سازی نقشی که هوش مصنوعی می تواند در زمینه های پیچیده ای مانند شیمی مصنوعی ایفا کند، به چیزی بیش از طبقه بندی بهبود یافته و مقادیر بیشتری از داده نیاز دارد. در اخیر مقاله که در مجله انجمن شیمی آمریکاشیمیدان دیجیتال فلیکس استریت-کالتوف، همراه با پیشگامان شیمی هوش مصنوعی مانند آلن آسپورو-گوزیک، فرانک گلوریوس، و بارتوش گرزبووسکی، استدلال کردند که طراحان الگوریتم باید روابط نزدیکتری با شیمیدانان مصنوعی ایجاد کنند تا از دانش تخصصی خود استفاده کنند.
آنها استدلال میکنند که چنین همکاریهایی برای دو طرف مفید خواهد بود و به شیمیدانهای مصنوعی اجازه میدهد تا مدلهای هوش مصنوعی را برای مشکلات مصنوعی مورد علاقه خاص توسعه دهند، “پیوند دانش هوش مصنوعی در جامعه مصنوعی”.
نگاه به آینده
برای ابوالحسنی، موفقیت آزمایشهای خودمختار در شیمی در نهایت به اعتماد خواهد بود. «آزمایش خودکار ابزاری است که میتواند به دانشمندان کمک کند… [but] برای انجام این کار، سخت افزار باید قابل تکرار و قابل اعتماد باشد،” او توضیح می دهد.
این برای جامعه برای گسترش پایگاه کاربر ضروری است
میلاد ابوالحسنی، دانشگاه ایالتی کارولینای شمالی
و برای ایجاد این اعتماد، موانع ورود باید کاهش یابد تا شیمیدانان بیشتری بتوانند از آزمایشگاه های خودگردان در کار خود استفاده کنند. او توضیح میدهد: «این باید تا حد امکان شهودی باشد تا شیمیدانهایی که تجربهای در آزمایشهای خودمختار ندارند بتوانند با آزمایشگاههای خودران تعامل داشته باشند.
علاوه بر این، او میگوید، بهترین آزمایشگاههای خود نیرو در حال حاضر بسیار گران هستند، بنابراین گزینههای کمهزینهتر باید با حفظ قابلیت اطمینان و تکرارپذیری توسعه داده شوند. او میگوید: «برای جامعه باید پایگاه کاربران را گسترش دهد.
‘یک بار [self-driving labs] تبدیل شدن به یک ابزار اصلی در شیمی [they] میتواند به ما کمک کند شیمی و علم مواد را دیجیتالی کنیم و دسترسی به دادههای تجربی با کیفیت بالا را فراهم کنیم… اما قدرت این دادههای تخصصی زمانی است که دادهها قابل تکرار، قابل اعتماد و استاندارد برای استفاده همه باشند.»
مسری بر این باور است که هوش مصنوعی زمانی بسیار مفید خواهد بود که تنها به عنوان یک مکمل برای انسان نگاه شود، نه جایگزین. او می گوید که برای انجام این کار، جامعه باید در مورد زمان و مکان استفاده بسیار دقیق تر باشد. او می افزاید: “من بسیار مطمئن هستم که دانشمندان خلاق می توانند مواردی را ارائه دهند که در آن می توان این کار را مسئولانه و سازنده به کار برد.”
Crockett پیشنهاد می کند که دانشمندان ابزارهای هوش مصنوعی را به عنوان رویکرد دیگری برای تجزیه و تحلیل داده ها در نظر بگیرند – رویکردی که با ذهن انسان متفاوت است. او میگوید: «تا زمانی که به آن احترام بگذاریم… پس میتوانیم رویکرد خود را با ترکیب این ابزارها بهعنوان گره متنوع دیگری در شبکه تقویت کنیم».
مهمتر از همه، کروکت میگوید که این لحظه میتواند به عنوان یک زنگ بیدارباش برای فشارهای سازمانی باشد که ممکن است دانشمندان هوش مصنوعی را مجبور به بهبود «عملکرد بدون درک بیشتر» کند. اما این مشکل بسیار بزرگتر از هر فرد دیگری است و قبل از یافتن راه حلی نیاز به پذیرش گسترده نهادی دارد.