linux防火牆實現技術比較(1)(轉)

amyz發表於2007-08-13
linux防火牆實現技術比較(1)(轉)[@more@]

  一 前言

  此文著重闡述linux下的防火牆的不同實現之間的區別,以ipchains, iptables, checkpoint FW1為例。

  二 基本概念

  2.0

  在進入正題之前,我將花少許篇幅闡述一些基本概念。儘管防火牆的術語這些年基本上沒有太大的變化,但是如果你以前只看過90年代初的一些文獻的話,有些概念仍然會讓你混淆。此處只列出一些最實用的,它們不是準確的定義,我只是儘可能的讓它們便於理解而已。

  2.1 包過濾:

  防火牆的一類。80年代便有論文來描述這種系統。傳統的包過濾功能在路由器上常可看到,而專門的防火牆系統一般在此之上加了功能的擴充套件,如狀態檢測等。它透過檢查單個包的地址,協議,埠等資訊來決定是否允許此資料包透過。

  2.2 代理:

  防火牆的一類。工作在應用層,特點是兩次連線(browser與proxy之間,proxy與web server之間)。如果對原理尚有疑惑,建議用sniffer抓一下包。代理不在此文的討論範圍之內。

  2.3 狀態檢測:

  又稱動態包過濾,是在傳統包過濾上的功能擴充套件,最早由checkpoint提出。傳統的包過濾在遇到利用動態埠的協議時會發生困難,如ftp。你事先無法知道哪些埠需要開啟,而如果採用原始的靜態包過濾,又希望用到的此服務的話,就需要實現將所有可能用到的埠開啟,而這往往是個非常大的範圍,會給安全帶來不必要的隱患。而狀態檢測透過檢查應用程式資訊(如ftp的PORT和PASS命令),來判斷此埠是否允許需要臨時開啟,而當傳輸結束時,埠又馬上恢復為關閉狀態。

  2.4 DMZ非軍事化區:

  為了配置管理方便,內部網中需要向外提供服務的伺服器往往放在一個單獨的網段,這個網段便是非軍事化區。防火牆一般配備三塊網路卡,在配置時一般分別分別連線內部網,internet和DMZ。

  2.5

  由於防火牆地理位置的優越(往往處於網路的關鍵出口上),防火牆一般附加了NAT,地址偽裝和VPN等功能,這些不在本文的討論範圍。

  三 檢測點

  3.0 綜述

  包過濾需要檢查IP包,因此它工作在網路層,截獲IP包,並與使用者定義的規則做比較。

  3.1 ipchains

  摘自【3】

  ----------------------------------------------------------------

  | ACCEPT/ lo interface |

  v REDIRECT _______ |

  --&gt C --&gt S --&gt ______ --&gt D --&gt ~~~~~~~~ --&gt|forward|----&gt _______ --&gt

  h a |input | e {Routing } |Chain | |output |ACCEPT

  e n |Chain | m {Decision} |_______| ---&gt|Chain |

  c i |______| a ~~~~~~~~ | | ->|_______|

  k t | s | | | | |

  s y | q | v | | |

  u | v e v DENY/ | | v

  m | DENY/ r Local Process REJECT | | DENY/

  | v REJECT a | | | REJECT

  | DENY d --------------------- |

  v e -----------------------------

  DENY

  總體來說,分為輸入檢測,輸出檢測和轉發檢測。但具體到程式碼的時候,輸出檢測實際分散到了幾處(不同的上層協議走IP層的不同的流程):

  UDP/RAW/ICMP報文:ip_build_xmit

  TCP報文:ip_queue_xmit

  轉發的包:ip_forward

  其它:ip_build_and_send_pkt

  正如ipchains專案的負責人Rusty Russell所說,在開始ipchians不久,便發現選擇的檢測點位置錯了,最終只能暫時將錯就錯。一個明顯的問題是轉發的包在此結構中必須經過三條鏈的匹配。地址偽裝功能與防火牆模組牽扯過於緊密,如果不詳細瞭解其原理的話,配置規則很容易出錯。

  此部分詳細的分析可參見我早期的一份文章【9】。

  3.2 iptables

  A Packet Traversing the Netfilter System:

  ---&gtPRE------&gt[ROUTE]---&gtFWD----------&gtPOST------&gt

  Conntrack | Filter ^ NAT (Src)

  Mangle | | Conntrack

  NAT (Dst) | [ROUTE]

  (QDisc) v |

  IN Filter OUT Conntrack

  | Conntrack ^ Mangle

  | | NAT (Dst)

  v | Filter

  2.4核心中的防火牆系統不是2.2的簡單增強,而是一次完全的重寫,在結構上發生了非常大的變化。相比2.2的核心,2.4的檢測點變為了五個。

  在每個檢測點上登記了需要處理的函式(透過nf_register_hook()儲存在全域性變數nf_hooks中),當到達此檢測點的時候,實現登記的函式按照一定的優先順序來執行。嚴格的從概念上將,netfilter便是這麼一個框架,你可以在適當的位置上登記一些你需要的處理函式,正式程式碼中已經登記了許多處理函式(在程式碼中搜nf_register_hook的呼叫),如在NF_IP_FORWARD點上登記了裝發的包過濾功能。你也可以登記自己的處理函式,具體例子可參看【8】與【10】。

  

3.3 FW1

  FW1是chekpoint推出的用於2.2核心的防火牆。由於其釋出的模組檔案帶了大量的除錯資訊,可以從反彙編的程式碼中窺探到到許多實現細節。

  FW1透過dev_add_pack的辦法載入輸入過濾函式,如果對這個函式不熟悉,請參看【14】。但是此處有個問題:在net_bh()中,傳往網路層的skbuff是克隆的,即

  skb2=skb_clone(skb, GFP_ATOMIC);

  if(skb2)

  pt_prev->func(skb2, skb->dev, pt_prev);

  這樣的話如果你想丟棄此包的話,光將其free掉是不夠的,因為它只是其中的一份複製而已。

  FW1是怎麼解決這個問題的呢?見下面的程式碼(從彙編程式碼翻譯成的C程式):

  packet_type *fw_type_list=NULL;

  static struct packet_type fw_ip_packet_type =

  {

  __constant_htons(ETH_P_IP),

  NULL, /* All devices */

  fw_filterin,

  NULL,

  NULL, /* next */

  };

  fwinstallin(int isinstall )

  {

  packet_type *temp;

  /*安裝*/

  if(isinstall==0){

  dev_add_pack(&fw_ip_packet_type);

  fw_type_list = fw_ip_packet_type->next;

  for(temp = fw_type_list; temp; temp=temp->temp)

  dev_remove_pack(temp);

  }

  /*解除安裝*/

  else {

  dev_remove_pack(&fw_ip_packet_type);

  for(temp = fw_ip_packet_type; temp; temp=temp->next)

  dev_add_pack(temp);

  }

  }

  不難看出,FW1把ip_packet_type歇載掉了,然後自己在自己的處理函式(fw_filterin)中調ip_recv。

  輸出的掛載和lkm的手法一樣,更改dev->hard_start_xmit。dev結構在2.2版本的發展過程中變了一次,為了相容FW1對這點也做了處理(透過檢查版本號來取偏移)。

  還有一款linux下的防火牆產品WebGuard()採用的手法與FW1其非常類似。有興趣的人可以自行研究一下。

  四 規則

  4.0 綜述

  4.1 ipchains

  man ipfw可以看到這一段的詳細解釋。關鍵資料結構如下:

  規則鏈用ip_chain結構來表示,預設有input,ouptput,forward三條鏈。在配置規則的時候,也可以新增新的鏈。每條鏈事實上就是一組相關的規則,以連結串列的形式儲存。

  struct ip_chain

  {

  ip_chainlabel label; /* Defines the label for each block */

  struct ip_chain *next; /* Pointer to next block */

  struct ip_fwkernel *chain; /* Pointer to first rule in block */

  __u32 refcount; /* Number of refernces to block */

  int policy; /* Default rule for chain. Only *

  * used in built in chains */

  struct ip_reent reent[0]; /* Actually several of these */

  };

  每條規則用一個ip_fwkernel結構表示:

  struct ip_fwkernel

  {

  struct ip_fw ipfw;

  struct ip_fwkernel *next; /* where to go next if current

  * rule doesn't match */

  struct ip_chain *branch; /* which branch to jump to if

  * current rule matches */

  int simplebranch; /* Use this if branch == NULL */

  struct ip_counters counters[0]; /* Actually several of these */

  };

  ip_fwkernel中的一個重要部分就是ip_fw,用來表示待匹配的資料包訊息:

  struct ip_fw

  {

  struct in_addr fw_src, fw_dst; /* Source and destination IP addr */

  struct in_addr fw_smsk, fw_dmsk; /* Mask for src and dest IP addr */

  __u32 fw_mark; /* ID to stamp on packet */

  __u16 fw_proto; /* Protocol, 0 = ANY */

  __u16 fw_flg; /* Flags word */

  __u16 fw_invflg; /* Inverse flags */

  __u16 fw_spts[2]; /* Source port range. */

  __u16 fw_dpts[2]; /* Destination port range. */

  __u16 fw_redirpt; /* Port to redirect to. */

  __u16 fw_outputsize; /* Max amount to output to

  NETLINK */

  char fw_vianame[IFNAMSIZ]; /* name of interface "via" */

  __u8 fw_tosand, fw_tosxor; /* Revised packet priority */

  };

  2.2核心中網路包與規則的實際匹配在ip_fw_check中進行。

  

4.2 iptables

  一條規則分為三部分:

  struct ipt_entry file://主要用來匹配IP頭

  struct ip_match file://額外的匹配(tcp頭,mac地址等)

  struct ip_target file://除預設的動作外(如ACCEPT,DROP),可以增加新的(如REJECT)。

  man iptable:

  >A firewall rule specifies criteria for a packet, and a

  >target. If the packet does not match, the next rule in

  >the chain is the examined; if it does match, then the next

  >rule is specified by the value of the target, which can be

  >the name of a user-defined chain, or one of the special

  >values ACCEPT, DROP, QUEUE, or RETURN.

  2.4核心中網路包與規則的實際匹配在ip_do_table中進行。這段程式碼的流程在

  netfilter hacking howto 4.1.3描述的非常清楚。

  簡化程式碼如下:

  /* Returns one of the generic firewall policies, like NF_ACCEPT. */

  unsigned int

  ipt_do_table(struct sk_buff **pskb,

  unsigned int hook,

  const struct net_device *in,

  const struct net_device *out,

  struct ipt_table *table,

  void *userdata)

  {

  struct ipt_entry *e;

  struct ipt_entry_target *t;

  unsigned int verdict = NF_DROP;

  table_base = (void *)table->private->entries

  + TABLE_OFFSET(table->private,

  cpu_number_map(smp_processor_id()));

  e = get_entry(table_base, table->private->hook_entry[hook]);

  ...

  ip_packet_match(ip, indev, outdev, &e->ip, offset);

  ...

  IPT_MATCH_ITERATE(e, do_match, *pskb, in, out, offset, protohdr, datalen, &hotdrop)

  ...

  t = ipt_get_target(e);

  ...

  verdict = t->u.kernel.target->target(pskb, hook, in, out, t->data, userdata);//非標準的target走這一步

  ...

  return verdict;

  }

  流程:

  ---&gtNF_HOOK();(/include/linux/netfilter.h)

  ---&gtnf_hook_slow;(/net/core/netfilter.c)

  ---&gtnf_iterate();(/net/core/netfilter.c)

  ---&gt然後執行登記的函式;如果你希望有一套ipt_entry結構規則,並將它放到table裡,你此時便可呼叫ipt_do_table來匹配。

  在2.4核心中,規則本身也是可擴充套件的,體現可自己定義並新增新的ip_match和ip_target上。

  4.2 FW1

  未作分析。

  五 與應用層的互動

  5.0 綜述

  防火牆除了核心裡的功能以外,還需要在應用層有相應的的配置工具,如新增修改規則等,這就涉及如何與核心通訊的問題。

  核心模組有三種辦法與程式打交道:首先是系統呼叫,缺點是必須新增新的系統呼叫或修改原有的,造成對核心程式碼原有結構的變換;第二種辦法是透過裝置檔案(/dev目錄下的檔案),不必修改編譯原有的程式碼,但在使用之前要先用mknod命令產生一個這樣的裝置;第三個辦法便是使用proc檔案系統。

  5.1 ipchains

  由於ipchains是已經是核心的正式一部分,它採用了修改系統呼叫的辦法來新增修改命令,採用的辦法就是擴充套件setsockopt系統呼叫:

  int setsockopt (int socket, IPPROTO_IP, int command, void *data, int length)

  man ipfw可以獲得這方面的細節。

  ipchains應用程式首先要需要建立一個raw socket(libipfwc.c),然後在之上呼叫setsockopt。

  sockfd = socket(AF_INET, SOCK_RAW, IPPROTO_RAW)

  呼叫順序:

  ipchains在應用層呼叫setsockopt,進入核心:

  ---&gtsys_socketcall(net/socket.c)

  ---&gtsys_setsockopt(net/socket.c)

  ---&gtinet_setsockopt(net/ipv4/af_inet.c)

  ---&gtsock_setsockopt(net/core/sock.c)

  ---&gtraw_setsockopt(net/ipv4/raw.c)

  ---&gtip_setsockopt(net/ipv4/ip_sockglue.c)

  ---&gtip_fw_ctl(net/ipv4/ip_fw.c)

  5.2 iptables

  原理同ipchains, 但內部命令格式作了大幅簡化。詳見nf_setsockopt()。

  5.3 FW1

  FW1 登記了一個字元裝置,透過它來進行使用者空間與核心空間的互動。相關程式碼(從彙編程式碼翻譯成的C程式)如下:

  static unsigned int fw_major=0;

  static struct file_operations fw_fops=

  {

  NULL, /* lseek */

  fw_read, /* read */

  fw_write, /* write */

  NULL, /* readdir */

  fw_poll, /* poll */

  fw_ioctl, /* ioctl */

  NULL, /* mmap */

  fw_open, /* open */

  NULL, /* flush */

  fw_release /* release */

  NULL, /* fsync */

  };

  int init_module()

  {

  ...

  /*man register_chrdev

  On success, register_chrdev returns 0 if major is a number

  other then 0, otherwise Linux will choose a major number and

  return the chosen value.*/

  if(fw_major=register_chrdev(UNNAMED_MAJOR, “fw”, &fw_fops))

  return -1;

  ...

  }

  void cleanup_module()

  {

  ...

  unregister_chrdev(fw_major, "fw");

  ...

  }

  fw_ioctl()用來做配置工作。

  六 碎片的處理

  6.0 綜述

  關於分片重組的實現可參看【13】。

  6.1 ipchains

  在2.2核心中除非設定了alway_defrag,否則包過濾模組不會對經過的包進行重組。它採用的辦法是隻看第一片,因為只有這一片中有完整的頭資訊,而後序的分片一律允許透過。為了防止分片欺騙(比如第一片極小,把傳輸層資訊放到了第二片中),對這種正常情況中不可能出現的包做了而外的處理(太小的分片會被丟棄)。

  6.2 iptables

  在2.4核心有些變化,如果啟動了conncetion track,所有到達防火牆的碎片都會重組,這點在以後可能會變化,正如howto 中說的,現在考慮的還只是功能的完備性,效率還要在以後的版本中改進。檢測點也有了變化,輸入檢測在改在重組之後。

  6.3 FW1

  FW1對分片也做了額外處理,但目前尚未對其實現做仔細的分析。

  七 狀態檢測

  7.0 綜述

  基於狀態的檢測對管理規則提出了非常大的方便,現在已成了防火牆的一項基本要求。但目的明確之後,其實現可以選擇多種不同的方法。

  7.1 ipchains

  ipchains本身不能完成狀態檢測,但有幾份pacth為它做了一下這方面的補充,採用的是簡單的動態新增規則的辦法,這是作者對其的介紹:

  > I believe it does exactly what I want: Installing a temporary

  > "backward"-rule to let packets in as a response to an

  > outgoing request.

  7.2 iptables

  在2.4核心中,基於狀態的檢測已經實現,利用的是connection track模組。此模組檢查所有到來的資料包,將得到的狀態(enum ip_conntrack_status)保留在sk_buff結構中(即skb->nfct,可透過ip_conntrack_get()得到)。

  在規則中要指明狀態資訊(作為一個ipt_match),既實際上仍是比較每一條規則。從效率上,這種處理方式感覺不如下面FW1採用的方式好。

  7.3 FW1

  這段的程式碼沒有做分析,但有一些文章透過黑箱操作的辦法“猜測“出了它的實現原理,如【1】。除規則表以外,FW1另外維護一份狀態表。當一個新的連線發生的時候,FW1與規則表配備,如果允許透過的話,則在狀態表中建立相應表項。以後的資料過來的時候首先匹配狀態表,如果它屬於一個連線,便允許透過,而不再檢查規則表。

  草草看了一下BSD下的防火牆ipfilter的howto,感覺它的實現與FW1基本相同。

  八 函式指標的問題

  許多初讀核心的人對函式指標的應用很不適應,在netfilter中更是用的非常廣泛。大量register函式的應用,使得netfilter非常的模組化,但是給初學者帶來的問題也不小。

  這裡是linuxforum上的一份帖子,如果看程式碼時對函式指標的指向總是糊里糊塗的話,可借鑑一下這個思路(當然關鍵還是要找到指標初始化的地方):

  >Linux核心技術

  >herze (stranger ) 01/15/01 02:54 PM

  >高手指點:PPP的傳送函式在那裡?

  >在Linux核心2.4.0中對於PPP資料包已經打好的包,核心中的ppp_generic.c檔案中傳送的流程好像如下

  >ppp_file_write()->ppp_xmit_process()->ppp_push()(可能也由其它的傳送流程,但是最後都是

  >用到了ppp_push())這個函式,而這個函式呼叫了一個struct channel中struct ppp_channel中的

  >struct ppp_channel_ops 中的一個函式指標

  >int (*start_xmit)(struct ppp_channel *, struct sk_buff *)來進行傳送的,但是下面我就不明白了。

  >雖然在drivers/char/cyclades.c和drivers/char/serial167.c中找到了

  >start_xmit( struct cyclades_port *info )但是函式說明都不相同。

  >請教:

  >int (*start_xmit)(struct ppp_channel *, struct sk_buff *)

  >到底這個函式指標是指到了什麼地方?

  >是不是和具體的硬體有關,但是我怎麼在核心中找不到對應的函式?

  >Linux核心技術

  >yawl (stranger ) 01/15/01 11:31 PM

  >思路這樣 [re: herze]

  >核心中常有這樣的類似處理,查詢這種函式指標的一個好辦法,就是找那種結構的例項,對於你的問題,就是找

  >ppp_channel_ops,最終會找到async_ops(ppp_async.c)和sync_ops(ppp_synctty.c),沒看過這塊的

  >具體程式碼,不敢多說,但思路如此。

  九 後記

  儘管此文中是在【12】的基礎之上完成的,但是在內容上並未完全包括前者,感興趣的朋友在那篇文章上可能能找到一些有趣的原始資訊。由於時間關係,本文在此主題上的探討仍顯粗淺,對此只能說抱歉了。

來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/10752019/viewspace-955573/,如需轉載,請註明出處,否則將追究法律責任。

相關文章