ChatGPT może pisać polimorficzne złośliwe oprogramowanie, aby zainfekować Twój komputer

Zdjęcie: w Juttanie (Shutterstock)

ChatGPT, wszechstronnie utalentowany chatbot AIma jeszcze jedną umiejętność do dodania do Twojego profilu na LinkedIn: tworzenie wyrafinowanego „polimorficznego” złośliwego oprogramowania.

Tak, zgodnie z nowo wydanym raport Chatbot OpenAI firmy ochroniarskiej CyberArk jest bardzo dobry w opracowywaniu złośliwego oprogramowania, które może po królewsku zepsuć twój sprzęt. Specjaliści Infosec próbowali nastawić budzik o tym, jak nowe narzędzie oparte na sztucznej inteligencji może zmienić zasady gry w cyberprzestępczości, chociaż wykorzystanie chatbota do tworzenia bardziej wyrafinowanych typów złośliwego oprogramowania nie zostało jeszcze szeroko opisane.

Badacze CyberArk piszą, że kod opracowany przy pomocy ChatGPT wykazał „zaawansowane możliwości”, które mogą „łatwe unikanie produktów zabezpieczających”, specyficzna podkategoria złośliwego oprogramowania znana jako polimorficzne. Co to dokładnie oznacza? Według cyberekspertów, krótka odpowiedź brzmi: w CrowdStrikeCzy to:

Wirus polimorficzny, czasami nazywany wirusem metamorficznym, to rodzaj złośliwego oprogramowania, które jest zaprogramowane tak, aby wielokrotnie zmieniać swój wygląd lub pliki za pomocą nowych procedur deszyfrowania. W rezultacie wiele tradycyjnych narzędzi cyberbezpieczeństwa, takich jak rozwiązania antywirusowe lub antymalware oparte na wykrywaniu opartym na sygnaturach, nie może wykryć ani zablokować zagrożenia.

Zasadniczo jest to złośliwe oprogramowanie, które może kryptograficznie zmienić kształt obchodzą tradycyjne mechanizmy bezpieczeństwa, z których wiele zaprojektowano do wykrywania i wykrywania złośliwych sygnatur plików.

Pomimo faktu, że ChatGPT powinien mieć filtry aby zapobiec tworzeniu złośliwego oprogramowania, badacze byli w stanie ominąć te bariery, po prostu wymagając od niego wykonywania poleceń suflera. Innymi słowy, po prostu zmusili platformę do spełnienia ich wymagań, co zaobserwowali inni testerzy, gdy próbowali to zrobić wytwarzać toksyczną zawartość z chatbotem. Dla badaczy CyberArk chodziło po prostu o to, by ChatGPT wyświetlał określony złośliwy kod programowy – który mogliby następnie wykorzystać do stworzenia wyrafinowanych ataków omijających obronę. W rezultacie ChatGPT można zhakować Dużo łatwiej script kids lub innych cyberprzestępców-amatorów, którzy potrzebują niewielkiej pomocy przy tworzeniu szkodliwego programu.

“As we have seen, the use of ChatGPT’s API within malware can present significant challenges for security professionals,” CyberArk’s report says. “It’s important to remember, this is not just a hypothetical scenario but a very real concern.” Yikes indeed.

Leave a Comment