Tren dari kecerdasan buatan yang dinamakan ChatGPT Buat Demi ini tampaknya kebanyakan Pandai memudahkan kehidupan Sosok. Tiba pada akhirnya Eksis oknum jahat yang Pandai memaksa kecerdasan buatan tersebut Buat menciptakan malware yang sama sekali Kagak Pandai terdeteksi. Waduh, kok jadi gini?
ChatGPT Pandai Buat Malware yang Kagak Pandai Terdeteksi
Umumnya, malware akan dapat dengan mudah terdeteksi oleh antivirus (minimal Windows Defender) Buat setidaknya dapat minimalisir hal yang Kagak diinginkan. Tetapi, lain halnya dengan malware yang dibuat oleh ChatGPT, yang mana sama sekali Kagak Pandai terdeteksi bahkan oleh teknik keamanan terkuat, Endpoint Detection and Response (EDR).
Biar EDR merupakan teknik keamanan siber terkuat Buat Demi ini, Tetapi para Ahli di bidangnya mengatakan bahwasanya menangkap malware yang dibuat dengan kecerdasan buatan akan cukup menantang karena teknik yang digunakan Buat Demi ini Tetap terhitung ‘konvensional’ dan belum Ahli.
Melansir CSO, hal ini dikarenakan malware tersebut Rupanya bukanlah malware ‘Standar’ yang kita temukan atau hadapi, Tetapi dibuat, dan dirancang sedemikian Corak oleh kecerdasan buatan ChatGPT. Buat menyiasati pendeteksian, malware tersebut Pandai memutasikan dirinya sendiri Buat menjadi lebih kuat, Membangun pendeteksian sulit Buat dilakukan.
Memanfaatkan API dari Kecerdasan Buatan Buat Menciptakan Malware
Kalau brott membuka laman ChatGPT, tentunya akan disodorkan apa-apa saja hal yang boleh dilakukan dengan kecerdasan buatan Open AI tersebut. Tampak pada bagian kanan, bahwa kecerdasan buatan ini Pandai saja memberikan informasi yang kurang Seksama, buat informasi dan rekomendasi berbahaya, dan pengetahuan yang dibatasi Tiba akhir tahun 2021.
Tetapi, yang namanya oknum jahat, Eksis saja celah yang dimanfaatkan Buat Membangun sesuatu yang merugikan, dalam kasus ini ialah malware. Di mana kecerdasan buatan ini dimanfaatkan Application Programming Interface (API)-nya Buat kemudian dimanfaatkan oknum jahat tersebut Membangun malware tanpa harus terkena batasan.
Salah satu contohnya dapat kita temukan pada aplikasi yang dibuat pada Python dan sama sekali Kagak berbahaya, dapat melontarkan pertanyaan alias query melalui API kecerdasan buatan tersebut setiap kali apikasi tersebut dijalankan.
Yang artinya, aksi ini dilakukan tanpa harus dieksekusi terlebih dahulu, dan menghentikan ChatGPT dalam pemrosesannya. Melalui Metode ini pula, malware dapat diciptakan Buat Lalu bermutasi Buat menjadi semakin kuat dan sulit Buat dideteksi bahkan oleh sistem terbaik sekalipun kecuali dengan Donasi AI.
Sudah Mengintai Semenjak Awal Tahun 2023?
Terkait malware yang Pandai bermutasi ini Rupanya sudah diamati oleh Ahli di bidangnya dari perusahaan HYAS InfoSec bernama Jeff Sims.
Di mana dirinya telah menerbitkan laporan terkait malware yang Pandai bermutasi dinamakan Black Mamba, yang dapat kalian baca di sini. Lalui laporan yang ia kerjakan, ia Pandai mendemonstrasikan bahaya dari kecerdasan buatan dalam Membangun malware keylogger yang Betul-Betul sulit Buat dideteksi oleh EDR.
Bahkan, Pandai saja sudah Eksis yang lebih dahulu berhasil menciptakan malware yang Pandai bermutasi Buat kebutuhan pribadinya dan Kagak Pandai terdeteksi oleh teknik keamanan terkini sekalipun.
Bila kalian membaca lebih lanjut, yang menjadi limitasi dari malware yang dibantu dengan ChatGPT hanya dibatasi oleh ‘kreativitas’ atau input yang dimiliki oknum tersebut. Alhasil, hal ini akan mendesak perusahaan keamanan siber Buat meningkatkan keamanan dengan Donasi kecerdasan buatan Buat minimalisir hal yang Kagak kita inginkan.
Donasi AI akan Dibutuhkan Buat Memperkuat Keamanan?
Bila berdasarkan fakta yang Eksis dan sudah terjadi di lapangan, termasuk banyak sekali kasusnya, Kagak menutup kemungkinan teknik keamanan siber akan membutuhkan Donasi AI Buat Pandai mendeteksi potensi yang mungkin saja terjadi.
Tetapi, hal ini akan cukup menantang, karena teknologi yang kita miliki Demi ini Tetap seumuran jagung, dan Tetap terkatung-katung akan digunakan Buat apa dan benefitnya Buat umat Sosok.
Biar memang kemampuan AI Demi ini sudah Pandai dikatakan cukup mengerikan, Tetapi tampaknya Tetap akan membutuhkan waktu Buat dapat diregulasi supaya Kagak dimanfaatkan oleh orang yang salah ke depannya.
Baca juga informasi menarik lainnya terkait Tech atau artikel lainnya dari Bima. For further information and other inquiries, you can contact us via author@Jagat Game.com