محققان با استفاده از هوش مصنوعی توانستهاند ویروسهای جدیدی بسازند که فقط باکتریها را هدف میگیرند، اما مطالعات نشان میدهد این فناوری میتواند راههای ایمنی موجود برای جلوگیری از ساخت سلاحهای بیولوژیک را دور بزند و تهدید بالقوهای برای انسان ایجاد کند. کارشناسان هشدار میدهند که آیندهای با هوش مصنوعی قادر به طراحی موجودات زنده خطرناک چندان دور نیست.
برای مقابله با این تهدید، پژوهشگران بر ایجاد سیستمهای ایمنی چندلایه، ابزارهای غربالگری پیشرفته و قوانین تطبیقی برای کنترل سنتز زیستی مبتنی بر هوش مصنوعی تأکید میکنند. کنترل دادههای آموزشی، تست مدلها و محدود کردن دسترسی به اطلاعات حساس از جمله اقدامات امنیتی مهم است، اما همکاری بین دولت، دانشگاه و صنعت برای تضمین ایمنی زیستی ضروری به نظر میرسد.