| کد خبر ۳۱۱۱۵۷
کپی شد

◄ هوش مصنوعی در هوانوردی غیرنظامی

گسترش کاربرد هوش مصنوعی (AI) در هوانوردی غیرنظامی، نویدبخش ارتقای ایمنی، کارایی و خودکارسازی عملیات پروازی است.

هوش مصنوعی در هوانوردی غیرنظامی
تین نیوز |

گسترش کاربرد هوش مصنوعی (AI) در هوانوردی غیرنظامی، نویدبخش ارتقای ایمنی، کارایی و خودکارسازی عملیات پروازی است. با این حال، این تحول فناورانه چالش هایی بنیادین در حوزه نقش انسان، اعتماد به سامانه ها، حقوق داده های حرفه ای ها و امنیت سایبری ایجاد کرده است. این مقاله با اتکا به بیانیه موضعی مشترک انجمن خلبانان اروپا (ECA) و فدراسیون بین المللی انجمن های خلبانان خطوط هوایی (IFALPA)، به بررسی اصول انسان محور در طراحی سامانه های مبتنی بر هوش مصنوعی، مفهوم «اعتماد کالیبره شده»، جایگاه ادراک و قضاوت انسانی و الزامات حقوقی و اخلاقی حاکم بر داده های عملیاتی می پردازد.

مقدمه

هوانوردی غیرنظامی همواره در خط مقدم پذیرش فناوری های پیشرفته قرار داشته است. ورود هوش مصنوعی به این صنعت، از سامانه های پشتیبان تصمیم گیری گرفته تا تحلیل داده های پروازی و نگهداری پیش بینانه، فرصت های قابل توجهی برای افزایش ایمنی و بهره وری ایجاد می کند. در عین حال، وابستگی بیش از حد به اتوماسیون می تواند نقش ادراک انسانی، خلاقیت و شهود خلبانان را تضعیف کند. به همین دلیل، نهادهای حرفه ای خلبانی اروپا با انتشار یک ورقه موضع مشترک، تلاش کرده اند چارچوبی مفهومی و سیاستی برای استفاده مسئولانه از هوش مصنوعی در هوانوردی ارائه دهند.

طراحی سامانه های هوشمند با محوریت انسان

یکی از محورهای اصلی این سند، تأکید بر طراحی انسان محور سامانه های هوش مصنوعی است. از دیدگاه ECA و IFALPA، سامانه های مبتنی بر یادگیری ماشین نباید خلبان را از فرآیند تصمیم گیری خارج کنند، بلکه باید او را «در حلقه تصمیم» نگه دارند.

سامانه های کمکی باید به گونه ای طراحی شوند که:

  • تعامل آن ها با خلبان شهودی و شفاف باشد؛

  • امکان مداخله و تصمیم گیری نهایی انسان محفوظ بماند؛

  • اتوماسیون به تقویت عملکرد انسانی منجر شود، نه تضعیف آن.

ادراک انسانی و سامانه های کمکی

اگرچه هوش مصنوعی می تواند حجم عظیمی از داده ها را پردازش کند، ادراک انسانی همچنان نقشی بی بدیل در مواجهه با شرایط غیرمنتظره دارد. خلبانان بر اساس تجربه، حس موقعیت و «دانستن اینکه به چه چیز باید توجه کرد» می توانند در موقعیت های بحرانی تصمیم های حیاتی بگیرند.

سند مشترک ECA و IFALPA هشدار می دهد که اتکای افراطی به سامانه های خودکار می تواند موجب کاهش هوشیاری خلبان و نادیده گرفتن نشانه های حسی شود؛ موضوعی که در شرایط اضطراری، پیامدهای خطرناکی خواهد داشت.

اعتماد کالیبره شده به هوش مصنوعی

موفقیت به کارگیری هوش مصنوعی در هوانوردی منوط به شکل گیری اعتماد کالیبره شده (Calibrated Trust) است؛ یعنی نه اعتماد بیش از حد و نه بی اعتمادی کامل.

اعتماد مطلوب زمانی شکل می گیرد که:

  • قابلیت ها و محدودیت های سامانه های هوشمند برای کاربران شفاف باشد؛

  • تصمیم ها و خروجی های AI قابل فهم و قابل ردگیری باشند؛

  • خلبان در هر لحظه بتواند صحت عملکرد سامانه را ارزیابی کرده و در صورت لزوم مداخله کند.

خلاقیت، شهود و محدودیت های هوش مصنوعی

هوش مصنوعی علی رغم توان پردازش داده های عظیم، فاقد خلاقیت و شهود انسانی است. در شرایطی که سناریوهای پیش بینی نشده رخ می دهد، این ویژگی های انسانی هستند که می توانند جان مسافران و خدمه را نجات دهند. از این رو، سند مورد بحث بر این نکته تأکید دارد که هوش مصنوعی باید مکمل توان انسانی باشد، نه جایگزین آن.

حکمرانی داده و حقوق حرفه ای های هوانوردی

بخش مهمی از این بیانیه به حقوق داده ها اختصاص دارد. خلبانان، کنترل کنندگان ترافیک هوایی و کارکنان فنی، تولیدکنندگان اصلی داده های عملیاتی هستند؛ از جمله داده های ثبت شده در برنامه های پایش داده های پروازی (FDM).

اصول کلیدی مطرح شده عبارت اند از:

  • استفاده از داده ها تنها با رضایت جمعی و مشخص حرفه ای ها؛

  • منع استفاده تجاری از داده های مشتق شده از عملکرد انسانی؛

  • حفظ محرمانگی داده ها و جلوگیری از سوءاستفاده های اداری، کیفری یا رقابتی؛

  • جبران منصفانه ارزش اقتصادی داده ها برای کسانی که آن ها را تولید کرده اند.

امنیت سایبری و ریسک های نوظهور

هوش مصنوعی، اگرچه ابزار ارتقای ایمنی است، خود می تواند منبع تهدیدات جدید سایبری باشد. حملات مبتنی بر داده های مخدوش، سوگیری الگوریتم ها، ضعف در اعتبارسنجی خروجی ها و حملات زنجیره تأمین از جمله چالش های مطرح شده در این سند هستند.

برای کاهش این مخاطرات، بر تقویت احراز هویت، رمزنگاری، پایش مداوم و بازبینی دوره ای سامانه های هوشمند تأکید شده است.

نتیجه گیری

بر اساس دیدگاه ECA و IFALPA، آینده هوانوردی هوشمند زمانی ایمن و پایدار خواهد بود که هوش مصنوعی در چارچوبی انسان محور، شفاف و قانون مند به کار گرفته شود. حفظ نقش محوری انسان در تصمیم گیری، احترام به حقوق حرفه ای ها و استقرار نظام حکمرانی داده و امنیت سایبری، پیش شرط های اساسی موفقیت این تحول فناورانه هستند. هوش مصنوعی در هوانوردی نه یک جایگزین، بلکه یک شریک فناورانه برای انسان تلقی می شود.

منبع

European Cockpit Association (ECA) & International Federation of Air Line Pilots’ Associations (IFALPA).

Artificial Intelligence in Civil Aviation – Joint Position Paper.

منتشرشده در سال 2023.

برای دسترسی به اصل مقاله اینجا کلیک کنید.

 

 

آخرین اخبار حمل و نقل را در پربیننده ترین شبکه خبری این حوزه بخوانید
ارسال نظر
  • دیدگاه های ارسال شده توسط شما، پس از تایید تین نیوز، تا ۲۴ ساعت بعد منتشر خواهد شد.
  • تین نیوز نظراتی را که حاوی توهین یا افترا است، منتشر نمی‌کند.
  • پیام هایی که به غیر از زبان فارسی یا غیر مرتبط باشد منتشر نخواهد شد.
  • انتشار مطالبی که مشتمل بر تهدید به هتک شرف و یا حیثیت و یا افشای اسرار شخصی باشد، ممنوع است.
  • جاهای خالی مشخص شده با علامت {...} به معنی حذف مطالب غیر قابل انتشار در داخل نظرات است.
  • در نوشتن نظرات، لطفا بعد از هر کلمه، یک فاصله خالی بگذارید.
  • در انتقال تخلفات دستگاه‌ها، موارد تخلف را با ضمیمه نمودن اسناد تخلف به آدرس info@tinn.ir ارسال نمایید تا امکان پیگیری بصورت مستند فراهم شود.