اثرات مضر فناوری دیجیتال - کارشناسان استدلال می کنند که این علم "نیاز به اصلاح دارد"
کارشناسان در این زمینه میگویند: از رسانههای اجتماعی گرفته تا هوش مصنوعی، فناوریهای آنلاین برای زیرساختهای علمی که برای سنجش آسیبهای سلامت عمومی استفاده میشود، خیلی سریع در حال تغییر هستند.
به گفته دو محقق برجسته در گزارش جدیدی که در ژورنال Science منتشر شده است، تحقیقات علمی در مورد مضرات فناوری دیجیتال در یک "چرخه شکست" گیر کرده است که بسیار کند حرکت میکند و به دولتها و جامعه اجازه نمیدهد شرکتهای فناوری را به حساب بیاورند.
دکتر امی اوربن از دانشگاه کمبریج و دکتر جی ناتان ماتیاس از دانشگاه کرنل میگویند سرعتی که فناوری جدید برای میلیاردها نفر به کار میرود فشار غیرقابل تحملی را بر سیستمهای علمی که سعی در ارزیابی اثرات آن دارند وارد کرده است.
آنها استدلال میکنند که شرکتهای بزرگ فناوری به طور مؤثر تحقیقات در مورد ایمنی محصولات خود را به دانشمندان مستقل در دانشگاهها و موسسات خیریه که با کسری از منابع کار میکنند برون سپاری میکنند - در حالی که شرکتها همچنین دسترسی به دادهها و اطلاعات ضروری را مسدود میکنند. این برخلاف سایر صنایع است که در آن تست ایمنی عمدتاً "در خانه" انجام میشود.
اوربن و ماتیاس خواستار بازنگری اساسی در «تولید شواهد» برای ارزیابی تأثیر فناوری بر همه چیز از سلامت روان گرفته تا تبعیض هستند.
توصیههای آنها شامل تسریع فرآیند تحقیق است، بهگونهای که مداخلات سیاستی و طرحهای ایمنتر به موازات جمعآوری شواهد اولیه، و ایجاد فهرستی از آسیبهای مرتبط با فناوری با اطلاع عموم مورد آزمایش قرار گیرند.
اوربن، از واحد علوم مغز و شناخت MRC در کمبریج، گفت: شرکتهای فناوری بزرگ به طور فزایندهای با مصونیت عمل میکنند، در حالی که اعتماد به امنیت عمومی در حال محو شدن است. "سیاست گذاران و مردم به دانشمندان مستقل به عنوان داوران ایمنی فناوری روی میآورند.
دانشمندانی مانند خودمان به منافع عمومی متعهد هستند، اما از ما خواسته میشود که صنعت میلیارد دلاری را بدون حمایت مناسب برای تحقیقات خود یا ابزارهای اساسی برای تولید سریع شواهد با کیفیت خوب، حساب کنیم.»
اوربن گفت: ما باید فوراً این اکوسیستم علم و سیاست را اصلاح کنیم تا بتوانیم خطرات بالقوه ناشی از جامعه دیجیتال در حال تکامل خود را بهتر درک و مدیریت کنیم.
چرخه بازخورد منفی
در آخرین مقاله Science، محققان اشاره میکنند که شرکتهای فناوری اغلب ابتدا از سیاستهای استقرار سریع محصولات پیروی میکنند و سپس به دنبال «اشکزدایی» مضرات احتمالی هستند. این شامل توزیع محصولات مولد هوش مصنوعی به میلیونها نفر قبل از تکمیل تستهای ایمنی اولیه میشود.
هنگامی که محققان وظیفه درک مضرات بالقوه فناوریهای جدید را بر عهده میگیرند، بر «علم روتین» تکیه میکنند که - که باعث پیشرفت جامعه برای دههها شده است - اکنون تا حدی از میزان تغییرات تکنولوژیک عقب میافتد که گاهی اوقات «غیرقابل استفاده» میشود.
با فشار بسیاری از شهروندان به سیاستمداران برای اقدام در مورد ایمنی دیجیتال، اوربن و ماتیاس استدلال میکنند که شرکتهای فناوری از سرعت کند علم و فقدان شواهد محکم برای مقاومت در برابر مداخلات سیاسی و «به حداقل رساندن مسئولیت خود» استفاده میکنند.
حتی اگر تحقیقات منابع مناسبی دریافت کند، آنها خاطرنشان میکنند که محققان با درک محصولاتی که با سرعت بی سابقهای تکامل مییابند، مواجه خواهند شد.
ماتیاس، سرپرست آزمایشگاه شهروندان و فناوری کورنل (CAT) گفت: "محصولات فناوری به صورت روزانه یا هفتگی تغییر میکنند و با افراد سازگار میشوند. حتی کارکنان شرکت ممکن است در هر زمان محصول را به طور کامل درک نکنند، و تحقیقات علمی ممکن است تا زمان تکمیل آن قدیمی باشد، چه برسد به انتشار.
ماتیاس گفت: در عین حال، زمانی که علم نقش دروازه بان مداخلات سیاستی را ایفا میکند، ادعاهای مربوط به ناکافی بودن علم میتواند به منبع تاخیر در ایمنی فناوری تبدیل شود.
همانطور که صنایع نفت و شیمیایی از سرعت آهسته علم برای انحراف شواهدی که حاکی از مسئولیت است استفاده میکنند، مدیران شرکتهای فناوری نیز از الگوی مشابهی پیروی میکنند. برخی حتی گفته میشود که از اختصاص منابع قابلتوجه به تحقیقات ایمنی بدون انواع خاصی از شواهد علت و معلولی خودداری کردهاند.
محققان "چرخه بازخورد منفی" فعلی را ارائه میکنند:
شرکتهای فناوری بهاندازه کافی منابع تحقیقاتی ایمنی را تامین نمیکنند و بار را به دوش دانشمندان مستقلی که فاقد دادهها و بودجه هستند، میاندازند. این بدان معناست که شواهد علّی با کیفیت بالا در بازههای زمانی مورد نیاز تولید نمیشود، که توانایی دولت را برای تنظیم مقررات تضعیف میکند - تحقیقات ایمنی را بیانگیزهتر میکند، زیرا شرکتها از قلاب خارج میشوند.
Orben و Matias استدلال میکنند که این چرخه باید دوباره طراحی شود و راههایی برای انجام آن ارائه میدهند.
گزارش آسیبهای دیجیتال
برای تسریع شناسایی آسیبهای ناشی از فناوریهای آنلاین، سیاستگذاران یا جامعه مدنی میتوانند ثبتهایی را برای گزارشدهی حوادث ایجاد کنند و مردم را تشویق کنند که در صورت تجربه آسیبها، شواهدی را ارائه کنند.
روشهای مشابهی در حال حاضر در زمینههایی مانند سمشناسی زیستمحیطی که در آن عموم مردم درباره آبراههای آلوده گزارش میدهند، یا برنامههای گزارش تصادف خودرو که به عنوان مثال ایمنی خودرو را آگاه میکنند، استفاده میشود.
ماتیاس گفت: «وقتی به مردم گفته میشود که به تجربه زندگیشان اعتماد نداشته باشند، به دلیل نبود شواهد در زمانی که این شواهد جمعآوری نمیشوند، چیزی به دست نمیآوریم.
ثبتهای موجود، از سوابق مرگومیر گرفته تا پایگاههای اطلاعاتی خشونت خانگی، میتوانند برای گنجاندن اطلاعات مربوط به دخالت فناوریهای دیجیتالی مانند هوش مصنوعی، تکمیل شوند.
نویسندگان مقاله همچنین یک سیستم «حداقل شواهد قابل دوام» را ترسیم میکنند که در آن سیاستگذاران و محققان «آستانه شواهد» مورد نیاز برای نشان دادن آسیبهای احتمالی فناوری را قبل از شروع آزمایش مداخلات تنظیم میکنند.
این آستانههای شواهد را میتوان توسط هیئتهای متشکل از جوامع آسیبدیده، مردم یا «دادگاههای علمی» تعیین کرد: گروههای متخصصی که برای ارزیابی سریع گرد هم آمدهاند.
اوربن گفت: «شواهد علّی آسیبهای تکنولوژیکی اغلب قبل از اینکه به طراحان و دانشمندان اجازه داده شود تا مداخلاتی را برای ایجاد یک جامعه دیجیتالی امنتر آزمایش کنند، مورد نیاز است.
"با این حال، آزمایش مداخله میتواند برای کمک به افراد و جامعه و مشخص کردن آسیبهای احتمالی در این فرآیند استفاده شود. ما باید از یک سیستم متوالی به یک سیستم چابک و موازی حرکت کنیم. "
تحت یک سیستم حداقل شواهد قابل دوام، اگر شرکتی مانع یا ناتوانی در حمایت از تحقیقات مستقل شود، و در مورد آزمایشات ایمنی داخلی خود شفاف نباشد، میزان شواهد مورد نیاز برای شروع آزمایش مداخلات بالقوه کاهش مییابد.
اوربن و ماتیاس همچنین پیشنهاد میکنند که از موفقیت «شیمی سبز» درس بگیریم، که سازمانی مستقل فهرستی از محصولات شیمیایی را با رتبهبندی بالقوه آسیبپذیر نگه میدارد تا به بازارها برای ایجاد جایگزینهای امنتر کمک کند.
اوربن گفت: روشها و منابع علمی که در حال حاضر برای ایجاد شواهد در اختیار داریم، نمیتوانند با سرعت توسعه فناوری دیجیتال مقابله کنند.
دانشمندان و سیاست گذاران باید شکستهای این سیستم را بپذیرند و قبل از اینکه عصر هوش مصنوعی جامعه را در معرض خطرات تغییرات تکنولوژیکی کنترل نشده قرار دهد، به ایجاد سیستمی بهتر کمک کنند.
ماتیاس اضافه کرد: وقتی علم درباره تأثیرات فناوریهای جدید خیلی کند باشد، همه ضرر میکنند.