پنتاگون به دنبال باز کردن جعبه سیاه هوش مصنوعی!
تاریخ انتشار: ۸ مهر ۱۴۰۲ | کد خبر: ۳۸۷۹۰۴۵۲
یک مقام ارشد وزارت دفاع آمریکا اعلام کرد این نهاد میخواهد قبل از استفاده کامل از هوش مصنوعی، اطلاعات بیشتری درباره این فناوری کسب کند و خواستار شفافیت بیشتر توسعه دهندگان در این باره شد.
کِرگ مارتل، مدیر ارشد هوش مصنوعی و دیجیتال پنتاگون، خواستار ارائه اطلاعات بیشتر از سوی شرکتهای هوش مصنوعی درباره نحوه ساخت نرم افزار هوش مصنوعی است تا این نهاد بتواند با طیب خاطر و اطمینان، از این فناوری استفاده کند.
بیشتر بخوانید:
اخباری که در وبسایت منتشر نمیشوند!
نرم افزار هوش مصنوعی روی مدلهای زبانی بزرگ متکی است که از مجموعه داده عظیمی برای کارکرد ابزارهای مانند چت باتها و تولیدکنندگان استفاده میکنند. این سرویسها معمولا بدون نشان دادن کارهای داخلی خود، در یک به اصطلاح جعبه سیاه، عرضه میشوند. در نتیجه، برای کاربران دشوار است که درک کنند چطور این فناوری، به تصمیمات رسیده یا چه چیزی باعث بهتر یا بدتر شدن آن به مرور زمان میشود.
مارتل گفت: ما فقط نتیجه نهایی مدلسازی را دریافت میکنیم و این کافی نیست. پنتاگون هیچ ایدهای ندارد که این مدلها چطور ساخته شده اند یا از چه دادههایی استفاده میکنند. همچنین شرکتها توضیح نمیدهند سیستمهایشان چه خطراتی ممکن است ایجاد کنند.
وی اظهار کرد: آنها میگویند بفرمایید. ما نمیگوییم آن را چطور ساختیم. به شما نمیگوییم در چه چیزی خوب یا بد است. نمیگوییم آیا جانبدارانه است یا خیر.
این مقام وزارت دفاع آمریکا، چنین مدلهایی را معادل «فناوری بیگانه یافت شده» برای وزارت دفاع توصیف کرد. وی همچنین نگران است که فقط عدهای از مردم پول کافی برای ساختن مدلهای زبانی بزرگ دارند. مارتل هیچ شرکتی را با نام مشخص نکرد، اما مایکروسافت، آلفابت، گوگل و آمازون از جمله شرکتهایی هستند که به همراه استارتاپهای OpenAI و آنتروپیک سرگرم توسعه مدلهای زبانی بزرگ برای بازار تجاری هستند.
مارتل از صنعت هوش مصنوعی و دانشگاهیان دعوت کرد در فوریه به واشنگتن رفته و به نگرانیهای مربوط بپردازند. هدف سمپوزیوم پنتاگون در زمینه داده دفاعی و هوش مصنوعی، این است که مشخص کند مدلهای زبانی بزرگ، برای انجام چه کارهایی میتوانند مناسب باشند.
تیم مارتل که یک گروه ویژه را مامور ارزیابی مدلهای زبانی بزرگ کرده است، تاکنون ۲۰۰ کاربرد احتمالی برای آنها در داخل وزارت دفاع یافته است.
بر اساس گزارش بلومبرگ، مارتل گفت ما نمیخواهیم مدلهای زبانی بزرگ را متوقف کنیم. میخواهیم استفاده از آنها، مزایا و خطراتی که دارند و نحوه خنثی سازی آنها را درک کنیم.
۲۲۷۲۲۷
برای دسترسی سریع به تازهترین اخبار و تحلیل رویدادهای ایران و جهان اپلیکیشن خبرآنلاین را نصب کنید. کد خبر 1819352منبع: خبرآنلاین
کلیدواژه: پنتاگون هوش مصنوعی فناوری مدل های زبانی بزرگ هوش مصنوعی وزارت دفاع مدل ها
درخواست حذف خبر:
«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را بهطور اتوماتیک از وبسایت www.khabaronline.ir دریافت کردهاست، لذا منبع این خبر، وبسایت «خبرآنلاین» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۸۷۹۰۴۵۲ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتیکه در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.
خبر بعدی:
اعتراف معاون پنتاگون به شکست تسلیحات ارسال شده آمریکا به اوکراین
به گزارش نشریه The War Zone (TWZ)، بیل لاپلانت، معاون لوید آستین، رئیس پنتاگون، در اظهاراتی به شکست تسلیحاتی که ایالات متحده به اوکراین ارائه کرده است، اعتراف کرد.
لاپلانت گفت که مهمات هوا به زمین ارائه شده به اوکراین به دلیل جنگ الکترونیک و سایر عوامل عملکرد ضعیفی داشته است. وی افزود که ارتش اوکراین مجبور شد آنها را به همین دلیل رها کند.
او نام خاصی را مشخص نکرد، اما این نشریه میگوید که ممکن است در مورد بمبهای "هوشمند" GLSDB باشد. همانطور که لاپلانت خاطرنشان کرد، واشنگتن مهمات زمینی را برای نیروهای مسلح اوکراین (AFU) ارسال کرد، اما آنها ناکارآمد بودند.
رایدر پیشتر گفته بود که ایالات متحده از قبل روند انتقال تسلیحات به کی یف را به عنوان بخشی از بسته حمایت نظامی جدید آغاز کرده است.
باشگاه خبرنگاران جوان بینالملل اروپا و آمریکا