論文研究:堅牢なPDFマルウェア分類子のトレーニングについて

論文のタイトル:堅牢なPDFマルウェア分類子のトレーニングについて

出典:第29回USENIXセキュリティシンポジウム2020

リンク:https://www.usenix.org/conference/usenixsecurity20/presentation/chen-yizheng

知識のポイント

参照https://blog.csdn.net/Shall_ByeBye/article/details/106883218

記事の内容

悪意のあるPDFファイルの検出器を簡単に回避できる方法があり、現在のモデルはやみくもに高い検出精度と低い誤検出率を追求していることが指摘されています。このペーパーでは、堅牢性属性を追加することにより、堅牢な悪意のあるPDF検出モデルをトレーニングします。一般的な検出モデルと比較して、堅牢性が高く、一般的なエスケープ攻撃に直面した場合の検出効果が高くなります。

この作業は、PDFマルウェアの新しい堅牢なトレーニング方法を提案します。この作品は、検証可能にロバストなトレーニングを採用し効果的なPDFをツリー構造として解析する必要があるという特性利用し、PDFツリー構造の新しい距離インデックスを提案し、この距離インデックスを使用して2種類のロバスト属性サブツリーを指定します挿入および削除攻撃者が堅牢な属性を満たしている限り、攻撃者がどれほど強力であっても、分類子の検出を回避できるバリアントを生成することはできません。たとえば、ロバスト属性がサブツリーの挿入として指定されている場合、サブツリーの挿入によって生成されたPDFマルウェアバリアントは検出を回避できません。

困難:

①過去の研究では、マルウェア分類子をトレーニングするときに、トレーニングセットに敵対的なサンプルがある場合、トレーニングされたモデルのFPレートが非常に高くなることが示されています。

解決策:PDFファイル構造ツリーを測定するための新しいインデックスを提案し、それによってモデルのFPレートを下げます。(いい話)

②悪意のあるPDFを検出するための従来の一般的なアルゴリズムは、ランダムフォレストなどの堅牢な分類子のトレーニングには適していません。

解決策:ニューラルネットワークを使用して、堅牢な分類子をトレーニングします。(力)

③本稿で提案するモデルのロバスト性を評価するために、7回の攻撃で12のベースラインモデルをテストした。

革新:

①:機械学習の分野では、モデルの品質を測定するためのパフォーマンス指標はたくさんありますが、適応型の反撃を具体的に検出するモデルの堅牢性を評価するのに適した指標はありません。モデルのFPRを低減するためにPDFファイルを測定するための新しい指標が具体的に提案されています

著者は、悪意のある機能を保持できるすべてのPDFマルウェアの亜種は、正しいPDF構文を満たす必要があること、つまり、ツリー構造に解析できることを発見しました。バリアントを体系的かつ効率的に生成するために、攻撃者はサブツリーの挿入およびサブツリーの削除操作を使用して、マルウェアのバリアントを生成する必要があります。分類子がこれら2つの操作に対して堅牢である限り、回避攻撃に対しても堅牢です。
これに基づいて、著者はサブツリー距離を距離インジケーターとして提案します。2つのPDFソフトウェアのサブツリー距離、つまり、ルートノードの下の異なるサブツリーの数です。xのルートノードの下にどのような種類のサブツリーが挿入されていても、xと生成されたバリアントx〜のサブツリーとの間の距離は1です。これにより、ロバスト領域をより適切に制限し、FPRを減らすことができます。
サブツリー距離の制限を利用して、サブツリー距離が1の場合、サブツリーの挿入と削除が2つの基本的なロバストプロパティであると作成者は指定します。

堅牢性属性は具体的には、マルウェアに対して任意のサブツリー挿入(削除)操作を実行することによって生成されたサブツリー距離が1のバリアントであり、分類子はそれを良性として分類しません。これらの属性はすべて、サブツリーの距離がNの場合に拡張できます。****

プロセッサはそれを良性として分類しません。これらの属性はすべて、サブツリーの距離がNの場合に拡張できます。****

おすすめ

転載: blog.csdn.net/qq_40742077/article/details/108898146