Rss

NETGEAR R6300開箱

這是公司新買來玩玩的機器,就直接開箱不解釋,也不想打太多字
這在公司算是相當便宜且實用的機種了,相較於公司其他價格殺人的產品,這東西非常的經濟實惠,可以拿來使用這台架設公司內部網路
以及無線規劃佈署等
先從外包裝介紹起,就如圖所示一樣
包裝背面有詳細敘述使用功能以及一些硬體特性,不過都用不到,因為這台要刷XD

打開包裝,裡面有機器本體以及說明書

機器本體,因為是鏡面所以有貼起來
裡面有含標準配件,變壓器電源線還有一條網路線

附帶一提,不虧為高級品,網路線是Cat.6還有遮蔽頭

背面那些網狀的洞可不是造型,而是真的是通氣孔,這樣子的設計讓機器不至於說熱都悶在裡面,這相當透氣啊


在介面上,後面有一組USB,四組LAN一組WAN,附帶一個重置鈕跟電源鍵
代表你不用的時候可以把它快速的關起來,而不是拔電源線

旁邊有WIFI的開關,不用的時候可以把WIFI關起來節省電力,此外還有一個WPS開關

前面板為全鏡面,而且是黑色的,可以看看這個反光多漂亮,而且只要放在女生前面,她們就會開始對者你的路由器整理頭髮以及開始化妝,多強的設計啊

拆開後裡面的PCB,可以看到WIFI有兩個獨立的模塊

此外可能怕韌體被刷壞之類的,所以有預留的杜邦頭可以讓你手動重刷

另一個網路模組,用的是broadcom的晶片

接下來就是拆掉散熱片,可以看到CPU也是為boardcom的晶片,有600Mhz,128的RAM

此外就是 LAN TRANSFORMER 用的是台達電的

運作時漂亮的燈號

由於是刷DD-WRT,所以控制項目無法詳細介紹
不過光CPU,用料以及硬體規格就已經可以打趴掉市面上一大半的路由器以及分享器了
此外支援802.11ac規範也是一大賣點,更不用說刷了DD的穩定度以及那強大的連線數等等
詳細的等我到公司在做測試,包含壓力測試等等

UFsolution

UniFi AP solution是一款應用規模性WiFi network部屬的彈性規劃方案產品, 包括了室內(Indoor)以戶外(Outdoor)的整合…..

基本概要
UniFi AP solution是一款應用規模性WiFi network部屬的彈性規劃方案產品, 包括了室內(Indoor)以戶外(Outdoor)的整合, 較一般AP+AC solution不同的是, 他是一個相當簡單的thin AP架構. 在以往的AP+AC架構, 其考量到AP與AC之間的整合通訊, AP與AC要如何進行溝通呢? 也就是說, 當AP收到來自client的資料後, 轉發至專屬的AC, 由AC進行各種資料處理(wireless I/O processing), 如下圖一個簡單的範例, 來自Fortinet的一份文件其中一張示意圖:

上圖是Fortinet針對WiFi network推出的一套企業型佈署方案, 其使用FortiAP作為AP搭配FortiGate的AC架構, 使得FortiAP受於FortiGate的完全控制, 成為整合性中央管理(Central Managenment). AC與AP之間考量到通訊上的協議, 使用CAPWAP protocol(UDP, 5246~5247), 這表示AP與AC之間建立某種安全性的通道(tunnel), control channel與data channel的加密. 像這樣以往的AP+AC佈署架凸顯出幾個特點:
1. AC可以是強大的powerful hardware. 但是會被專屬化受限, 歸屬於該廠商的IP架構(特製的AC).
2. 完全的中央管理, 使得全部的控管與設定由AC進行統籌與處理.
3. AC對於AP的控制, 完全決定在AC是否核可與授權給AP使用.
4. AC的特製化, 使得AC+AP架構的固定成本會提高.
5. 可能會有AP的連線授權數限制, 視該廠商的產品線與產品規格而定.
這些特徵使得以往AP+AC佈署架構成為專屬性的WiFi網路結構, 在UnFi AP soltuion較為不同的是, 它並非具備強制性, 意指UniFi solution提出的thin AP不會綁定在特製的AC, 意味著他不具備完整的AC+AP架構, 這表示有些不同特點:
1. 沒有AC綁定, 降低固定成本.
2. 沒有專屬AC的統籌管理, 但仍有特製的控制器(Controller)軟體可以進行佈署與設定.

3. 無連線數限制, 沒有特定產品線規範.
4. 由於沒有特製化AC綁定, AC經由控制器軟體佈署後, 上層可為一般L3設備進行協調與控制, 無tunnel架構.
5. 不僅僅是專屬的控制器軟體相容, 它可以適用在一些其他的控制器架構, ex: RouterOS.
6. 完全的網路底層通訊決定在L3設定, UnFi AP solution僅決定client的通訊授權.

可以看出UnFi AP solution較以往AC+AP架構有很大的不同點, 不過都具備一個主要的共通點, 這個共通點決定AP的佈署與設定:
AP的建立與連線, 完全必須事先透過discovery方式進行探測. 完成探測階段後, 方可決定是否授權連線.
為了能了解上述的句意, 以一張簡單的基礎流程圖做為表示, 如下圖所示:

從流程圖可以看出在AP開始進行AC探測, 如果發現AC存在, 就允許加入! 如果AC允許授權給AP, 則建立AP與AC之間的通訊. 不過有一點必須說明的是, AP的第一次AC探測是不能跨L3以上的設備, 它的限制僅在L2 network, 這在爾後將會進行說明這個原因.
如果第一次AC探測完成之後, 之後可以允許L3交換通訊, 但是如需跨網段的情況下, 基於AC的中央管理, 可能需要使用inform AC的方式使AP強制告知AC的固定位置, 可以使用domain name或著固定IP(domain name通常是建議的方式).

在UnFi AP solution期針對企業佈署方案包括了室內與戶外, AP與AC之間達成通訊後, client發送訊息到私有網路或著廣域網路, L2以上的通訊將會經由額外的L3設備提供.

UnFi AP solution支持了基礎的使用者驗證以及訪客存取控制(Guest Control), 可以簡單進行權限控管, 透過基礎使用者驗證控制提供了QoS流量限制(Traffic Shaping), 不過並沒有支持近幾年來流行的BYOD策略, 這是稍微比較可惜的. 不同的SSID存取控制允許不同的流量控制, 同時應用VLAN可以拆開網段是用在不同的層次設計, 水平或著垂直分割. 應用多個AP可以進行規模性佈署, 通過相容性的硬體或著特製化的控制器(Controller)軟體便可達成中樣管理.

UnfI AP solution提供了各種規格的產品, 室內與戶外或著等級差異性, 可參考如下的官方連結說明:
http://dl.ubnt.com/datasheets/unifi/…_Datasheet.pdf

外觀與硬體
從拆箱的外觀來看, 是一個輕薄的碟形狀設計. 不過它可以附著在天花板上.

http://www.ubnt.com/unifI

FAQ
http://wiki.ubnt.com/UniFi_FAQ
硬體拆解

http://wiki.openwrt.org/toh/<wbr/>ubiquiti/unifi

說明書
http://www.ubnt.com/downloads/<wbr/>guides/UniFi/UniFi_AP_AP-LR_<wbr/>User_Guide.pdf

包含驅動與討論 http://forum.ubnt.com/forumdisplay.php?f=48
此AP 都是thin AP 架構(無GUI ) 需要用一台 PC 上安裝上wireless  controller   ,這家
wireless 控制器軟體不像其他家每台要額外licenese ,搭配他們硬體AP全部不用錢

 

UNIFI ap本身為POE APP

特色:

thin poe ap
多SSID 並以SSID  分類頻寬效能
open wlan
可做
1.基本無限制登入
2.簡單密碼登入
3.用Paypa api 自動收用戶端刷卡費登入
4.Portal 頁面可自行設定
5.費用可設定用時間或流量

無線控制器管理軟體可以做到

集中管理
client 位置顯示
配合地型圖顯示狀況
wireless vlan

Wireless uplink=Mesh

如果還要實作更嚴格的控管
L3 搭配控管方面+pppoe 需求
x86 Router OS :
目前主流
RouterOS , 海蜘蛛 , wayos ,m0n0Wall , SmoothWall ,CoyoteLinux , Vyatta

海蜘蛛 http://www.hi-spider.com/

開箱照

 

 

 

 

 

UniFi的區域無線網路解決方案

 

*無許可證 便無需其他的硬體設備

 

特性和優點:

  • 容易安裝的設備
  • 具多設備監視功能及用戶管理
  • 設備位置的可計畫性
  • 用戶管理員一次可以控管多台 AP

 

 

Unfifi 產品信念:
不限制入口的增長。
“Ubiquiti Networks公司”開發的解決方案。
沒有成本的的HW廣泛的產品組合和持續發展。
我們相信,在管理和行政,避免購買不必要的硬體和軟體,並提出解決方案的成本/利益客戶,讓他們擁有廣泛的網絡和無線技術。
滿足企業的網絡協議。
Wi-fi.org證書的認證ID:WFA9602

 

重點使用地區:

  • 大專院校
  • 大型公共場合
  • 工業場所
  • 網路咖啡廳/餐廳
  • 公寓/大樓住所
  • 高級商務酒店/飯店
  • 公司行號
  • 城市發展區域
  • 俱樂部

 

軟體的優勢:
*允許你在飛機上放,為更好地管理或使用Google地圖。
*有完整用戶和接入點的報告。
*無線網絡在過去的24小時或30天,隨時報告客戶的消費交通之      間數字連接
*讓您集中管理金鑰和SSID的入口。
*監控管理的功能。
*它允許接入點的集中更新。

 

 

 

無線控制器特點:

 

  • 降低硬體安裝的成本也是軟體的平台
  • 可安裝在……等系統,並且無須大量的硬體配備
  • 可運用在實體以及虛擬的服務器上
  • 用戶端這邊架構之下,維持網路的服務器水平
  • 可安裝在NOC o Clould 用戶端

 

 

 

高級使用功能:

 

  • 可使漫遊的用戶在無條件下網路暢行
  • 用戶可自行創立熱門的連結點
  • 建立一個熱門的連結點,公司行號亦可作為網路接入並且不需要取得使用權認可,用戶即可進入統一的行政無線系統
  • 可以平衡無線的用戶狀態

 

 

 

熱門連結的定位:

 

  • 驗證門戶客人或視圖編輯,從而改變整個面具,票據,語言,標誌。生產方便遊客在一個單一的點擊,時間控制和ID,在一次訪問創建從1到1500。
  • 旅館酒店以及餐廳的最愛
  • 時間的使用限制可以靈活的控制

 

HOTSPOT 入口管理

  • 進入智慧型手機和平板電腦
    • 輸入用戶ID
    • 只需要認證一次即可
  • 進入筆記型電腦
    • 較容易的做法

*與MAC電腦用戶也能相容

 

網路安全

  • 密碼金鑰: WEP/WAP/WAP2(AES/TKIP)/802.1x(Radius)
  • 阻塞 MAC
  • SSID 隱藏
  • 基本用戶的驗證(網路用戶)
    • 歡迎詞
    • 一般的訊息提供
    • 臨時的替代性末
    • 防火牆的安全功能 以防止未經授權的訪客進入到內部網站
  • 在SSID的VLAN分段

 

 

 

訪客

 

 

Mesh 無線 Link

  • 可以無線連接到有線的連結點後,可以擴展無線網路,是電纜無法達到的成效
  • 創立的連結點,無線連結的軟體可以方便管理

速率限制

  • ID 流量的限制,用戶訪問一個SSID
  • 可用的網路資源,無須增加任何額外的控制器硬體設備的優點

 

室內安裝的位置

 

 

 

UAP y UAP-LR

  • 有四個  SSID con VLANS
  • 100 Clientes por equipo
  • Soporta QoS para Voz y Video
  • Segmentación y control de trafico de invitados

 

 

 

UAP-PRO

  • WiFi dual en 2.4Ghz y 5 Ghz simultáneamente.
  • Soporte de 2 puertas GE con POE 802.3af
  • Segmentación y control de trafico de invitados
  • Soporta 802.1Q WMM para Voz y Video
  • Seguro para instalación
  • 8 SSID, 4 en 2,4Ghz y 4 en 5Ghz

 

 

PICOM2HP

  • Soporte de 04 SSID con VLANS
  • Soporta + de 100 Clientes por equipo
  • Soporta QoS para Voz y Video
  • Segmentación y control de trafico de invitados

 

 

 

UAP-OUTDOOR y UAP-OUTDOOR5

  • Soporte de 04 SSID con VLANS
  • Soporta + de 100 Clientes por equipo
  • Soporta QoS para Voz y Video
  • Incluye 2 Puertos Ethernet, con soporte POE.
  • Segmentación y control de trafico de invitados

图片19.png

 

無線WiFi戶外的各項要求連結解決方案的可使用地方:

  • 俱樂部
  • 大專院校校園
  • 工廠
  • 住宅寓所
  • 需要網路的地方

 

 

Accesorios

 

INSTANT 802.3af

  • 配件用於刺激不穩定型訊號/ UAP的LR/ UAP的戶外或PICOM2,技術開關的802.3af PoE48V。
  • 使用802.3af標準時,有線網絡可以達到的最大距離為100米。
  • 這個附件是之前安裝無線接入點,提供設備和增加常量18V ESD保護具有高達15kV。
  • 這是一個可選的附件,作為球隊的PoE供電24V供電被動建築。

 

TOUGH CABLE

  • 以太網電纜305米(盒)及CAT5E超五類室外屏蔽既ESD保護。
  • 與使用在極端惡劣的環境和氣候的電信級標準設計的電纜發生急劇變化。
  • 保護接入點的公共服務電子化的問題,電力問題和避免這些後果。
  • 旨在提高POE的性能解決方案。
  • 內置24 AWG雙絞線銅電纜和26 AWG下載支持高達15kV的電擊。

*提供這種保護,接入點必須正確的安裝在PoE和PoE線纜堅固AP到交換機上,和PoE必須有接地。

成功的使用案例

  • 皇家軍事學院(倫敦)
    • 320 UAP
    • 1200 Usuarios(locales)
    • 3TB de descarga mensuales
  • 恆星酒店(秘魯)
    • 72 UAP 20 UAP-LR
  • 大陸酒店 (秘魯)
    • 16 UAP
  • 城市規劃(秘魯)
    • 30 UAP 20 PICOm2HP
  • 政府司法部門(秘魯)
  • 阿瑟羅夫婦阿雷基帕(秘魯)

Was this page helpful?
標籤 (Edit tags)
  • No tags

文件 44

文件 大小 日期 附件上傳者
201301111121.jpg

無描述
54.81 KB 11:24, 11 Jan 2013 vxr 動作
201301111159.jpg

無描述
11.72 KB 12:02, 11 Jan 2013 vxr 動作
201301111209.jpg

無描述
54.84 KB 21:16, 11 Jan 2013 vxr 動作
201301111613.jpg

無描述
26.29 KB 16:13, 11 Jan 2013 vxr 動作
201301111639.jpg

無描述
34.24 KB 16:39, 11 Jan 2013 vxr 動作
201301111653.jpg

無描述
67.08 KB 16:54, 11 Jan 2013 vxr 動作
201301111701.jpg

無描述
50.16 KB 17:01, 11 Jan 2013 vxr 動作
mac address.jpg

無描述
34.78 KB 20:44, 30 Apr 2012 thx 動作
P1030773 (Medium).JPG

無描述
122.62 KB 13:47, 27 Apr 2012 thx 動作
P1030775 (Medium)_conew1.JPG

無描述
168.02 KB 00:55, 28 Apr 2012 thx 動作
P1030780 (Medium)_conew1.JPG

無描述
55.13 KB 16:05, 27 Apr 2012 thx 動作
P1030782 (Medium)_conew1.JPG

無描述
81.83 KB 16:05, 27 Apr 2012 thx 動作
P1030783 (Medium)_conew1.JPG

無描述
95.5 KB 16:05, 27 Apr 2012 thx 動作
P1030787 (Medium)_conew1.JPG

無描述
72.93 KB 16:05, 27 Apr 2012 thx 動作
P1030789 (Medium)_conew1.JPG

無描述
78.05 KB 16:00, 27 Apr 2012 thx 動作
P1030791 (Medium)_conew1.JPG

無描述
117.32 KB 16:00, 27 Apr 2012 thx 動作
P1030793 (Medium)_conew1.JPG

無描述
108.08 KB 16:05, 27 Apr 2012 thx 動作
P1030818 (Medium).JPG

無描述
108.16 KB 16:30, 27 Apr 2012 thx 動作
P1030821 (Medium).JPG

無描述
128.76 KB 16:30, 27 Apr 2012 thx 動作
top_banner.jpg

無描述
27.35 KB 11:01, 11 Jan 2013 vxr 動作
UBNT- Chinese.ppt

無描述
8.46 MB 12:11, 23 May 2012 thx 動作
图片1.png

無描述
83.65 KB 12:24, 23 May 2012 thx 動作
图片10.png

無描述
74.76 KB 12:53, 23 May 2012 thx 動作
图片12.png

無描述
139.02 KB 13:00, 23 May 2012 thx 動作
图片13.png

無描述
59.45 KB 13:21, 23 May 2012 thx 動作
图片14.emf

無描述
1225.56 KB 13:04, 23 May 2012 thx 動作
图片16.png

無描述
328.39 KB 13:21, 23 May 2012 thx 動作
图片18.png

無描述
126.47 KB 13:21, 23 May 2012 thx 動作
图片19.png

無描述
115.07 KB 13:21, 23 May 2012 thx 動作
图片2.png

無描述
120.05 KB 12:24, 23 May 2012 thx 動作
图片20.png

無描述
31.2 KB 13:21, 23 May 2012 thx 動作
图片23.png

無描述
67.09 KB 13:22, 23 May 2012 thx 動作
图片24.png

無描述
164.15 KB 13:22, 23 May 2012 thx 動作
图片25.png

無描述
73.55 KB 13:22, 23 May 2012 thx 動作
图片27.png

無描述
138.77 KB 13:28, 23 May 2012 thx 動作
图片28.png

無描述
57.29 KB 13:28, 23 May 2012 thx 動作
图片29.png

無描述
61.73 KB 13:28, 23 May 2012 thx 動作
图片3.png

無描述
433.75 KB 12:24, 23 May 2012 thx 動作
图片30.png

無描述
139.76 KB 13:34, 23 May 2012 thx 動作
图片31.png

無描述
84.49 KB 13:36, 23 May 2012 thx 動作
图片5.png

無描述
20.55 KB 12:24, 23 May 2012 thx 動作
图片6.png

無描述
15.36 KB 12:24, 23 May 2012 thx 動作
图片7.png

無描述
5.01 KB 12:24, 23 May 2012 thx 動作
图片9.png

無描述
195.95 KB 12:48, 23 May 2012 thx 動作
您必須 登入 才能發佈評論。

 

    FORTINET

    原作 VXR
    這兩天拿到的…

    http://www.fortinet.com/products/fortigate/200B.html

    低延遲(2u) UTM Firewall
    一隻大箱子

    拆箱又見大箱子


    相關配件


    Fortinet FGT 200B-POE


    具備ASIC NP加速器(4ports)


    正面架構

    其中Marvell GbE不支援9K…

    有8組FE ports可以提供PoE
    動態偵測或著可選性..


    PCB部分…


    那個DIMM模組為PoE DIMM Module..
    提供PoE function, 因此不能拿來擴充內存~!@#$%^&*()..


    主要支持了CP6雙核內容處理器(操作UTM和VPN加速), CP6內置了64MB SRAM


    PCB版上有內置4GB的NAND FLASH…
    另外可透過FSM slot安裝SSD/HDD..

    CP6基礎特徵內容…


    兩顆CRPL ASIC處理器, 可用於UTM加速….
    跟中低階的box提供的CP6比較不同..
    他的host bus寬帶較大..
    中低階如80C rev2的CP6是PCI133, 32-bit


    另外提供NP2網路加速器..
    提供H/W NAT(fast-path), SSL/IPSEC VPN加速, IPS加速
    NP2另外附帶256MB DDR RAM來做buffer


    可以從Session Monitor看到只要有出現NP2就代表該session已經丟到NP2操作..
    這意味著他會繞過CPU…
    關於NP2 port上的相關資訊


    這台還支持LACP, 可以做PHY聚合…


    還台裡面有三顆1U風扇..
    有PWM會壓音量, 但是還是有點吵…


    這台的缺點就是對於UTM來說..
    1GB RAM實在有點少…..
    因此UTM設定上有要特別注意..

    跟新型的100D檔次來說..
    透過NP2加速就性能來講會好過100D(其餘100D特徵都頗YY的..)..
    不過RAM來說100D遠遠壓倒性超過200B..
    因為她有4GB RAM(g2版)…
    請注意!

    這款是中小企業在用的..

    隨便license上去就要3000美刀以上…

     

     

    FortiAP 220B開箱文

    FortiAP 220B(Zero-config)

    (原作VXR)
    FortiAP是 Fortinet推出的一款輕型(thin)無線AP, 是一款單純的AP. 規格書上標明Zero Configuration, 採用CAWAP協定, 暗示了本身幾乎不需要做任何設定(P1). FortiAP這一系列主要是用來配套FortiGate產品, 與之類似的有FortiWiFi系列(20C/40C/50B/60C…). 它不具備任何常見的功能, 也無法單獨進行調整(P1), 只有當連接到FortiGate時, 才可以允許相關功能維護(透過FortiOS系統).

    FAP-220B_Lt.png

    從上圖外觀可以清楚的看出它是隱藏式天線, 無法更換. 根據規格書上顯示是2R2T, 以222B產品推論來看, 應該是常見的2dbi. 因此這部份就真的沒甚麼好講的, 除此之外還附帶特別的monitor功能(兩組)提供AP-scan機能. 從實際的物品來看看, 如圖下所示:

    201209202055.jpg

    圖中可以看出它有7組LED標示燈, WiFi1~3標示天線使用部分, 因為是2R2T, 當Radio1和Radio2透過FortiOS開啟時, 便會亮起, WiFi3部分無法使用, 應該是針對3R3T產品(未來?, Fortinet目前沒有). ETH則是骨幹部分, 連到FortiGate所使用, ethernet規格為GbE, 剩下那三組就不再提起.

    201209202056.jpg

    背面的部分實在簡單, USB目前不可用, 規格書只說明for future use, CONSOLE當然就是需要RJ-45 to RS232 cable開通CLI使用, 針對特殊情況下. ETH PoE就是可以拿來連接FortiGate, 而外它還支持802.3af, 可以免AC電源連接, 當然這個前提是必須要先有PoE adapter或著L2/L3 PoE設備.

    FortiAP的設計是遵循CAWAP(Control And Provisioning of Wireless Access Points)規範, 意味著AP本身的大多業務是交由上層可支援設備(FortiGate)來處理, CAWAP標準可以參考RFC-5415及RFC-5416文件:

    1. http://tools.ietf.org/html/rfc5415

    2. http://tools.ietf.org/html/rfc5416

    透過CAWAP的實作, Fortinet規劃了兩種實體設備類型, 負責不同的業務操作: AP(WTP)和AC.

    1. AP: Access Point, 即無線收發端本身, 通常僅是單純對無線數據(wireless frames)的收發送操作, 又稱WTP(*).

    2. AC: Access Controller, 當AP傳送過來的數據, 將會轉交由AC單元進行處理, AC會乘載大多業務操作.

    * WTP: Wireless Termination Point

    201209241535.gif

    將AP和AC與Fortinet的設備進行對應, AP即為FortiAP; 而AC則是可支持的FortiGate. 基於CAWAP規範的實際, 如下幾個重點:

    1. AP如果要和AC彼此通訊, 必須要藉由AC-Discovery階段進行探測.

    2. 基於CAWAP規範的實作, 通訊時(配發IP之後)使用的port為5246/5247, UDP(*).

    3. CAWAP規範可以使用DTLS(Datagram Transport Layer Security)通道進行加密, 保證安全性. Fortinet目前只針對control traffic進行加密.

    4. 訊框(frame)傳送類型支持基於802.11的無線訊框(wireless frame)以及802.3的乙太網路訊框轉換.

    201209241439.jpg

    5. 一組AC可以管理超過10個以上的AP(WTP, managed AP), AC可以提供更強大的安全性認證.

    簡單的說明CAWAP規範後, 對於FortiAP, 先連入到CLI模式來看看這個AP提供了那些機能, 請注意! 它沒有任介面提供, 沒有GUI, 一般情況下也無法外部通訊(FortiWiFi則是可以使用FortiGate的CLI進行操作).

    201209202052.gif

    當AP進行初始化的時候, 可以看到這些啟動資訊, DRAM buffer為64MB, FLASH為16MB, 一顆SoC從編號應該可以猜出是Atheros的AR7100.

    201209221230.gif

    http://www.atheros.com/media/resourc…e_23_file2.pdf

    這顆SoC上的MIPS處理器可以負責一些附加價值業務, 例如AP-scan. 由於FortiAP提供的機能非常單純, 因此這顆MIPS能做的事不多, 大多都是FortiGate(AC)做掉.

    使用cat /proc/cpuinfo命令查看有關AR7100的MIPS CPU部分, 列出一些簡單的資訊:

    201209261456.jpg

    BogoMIPS為451.58, 所以clock猜測大約介於300~400MHz之間, MIPS 24K家族.

    201209202053.gif

    嵌入式設備常看到的BusyBox OS, Fortinet針對FortiAP提供了好幾種自訂化參數提供在進行AC-Discovery階段時採用, 這些自訂化參數如下圖所示:

    201209202054.gif

    這些參數的自訂化在有些情況下是非常有用的, 例如FortiGate混合型架構或著多層式串聯(L2+L3…). 基於CAWAP標準, AP(WTP)與AC之間的連線必須會接過AC-Discovery的探測階段, AC探測(Discovery)指的是FortiGate對FortiAP的探測, AP(WTP)本身除了AC探測之外, 幾乎不會負責一般業務應用, 像是NAT, DHCP等, 它都不具備. 所以AC探測就顯得非常重要了! 這個探測的關鍵在於FortiGate要如何與FortiAP進行通訊, 從上述的參數可以看到ADDR_MODE, 這是定址模式. STATIC是我特意在特殊情況下使用的, 正常預設值會是DHCP. 定址模式使用DHCP針對大多情況下可以適用. 在DHCP階段:

    1. 0.0.0.0/24來源, port 67~68=[廣播]=>255.255.255.255/32

    2. Gateway來源網段, port 67~68=[廣播]=>255.255.255.255/32

    3. FortiAP取得IP, 之後以預設的 5246 port與FortiGate通訊.

    201209221425.gif

    [for example]

    Broadcast DHCP request:

    wan1– 0.0.0.0.68 -> 255.255.255.255.67: udp

    wan1 — 192.168.8.1.67 -> 192.168.8.2.68: udp

    The FortiAP unit is assigned the IP address 192.168.8.2. It will then communicate with the WiFi controller on 192.168.8.1 using the CAPWAP control port 5246.

    5246的AC port(udp)是官方預設的數值, 用以與FortiGate溝通所使用. 除非有必要, 否則不應隨便去更改. 有一點請注意, 它的預設廣播型態是multicast, 預設值的DST address為: 240.0.1.140的典型multicast網段. 如果有穿過像是L3設備等, 請把mutlicast放行, 否則怎麼樣也不會通. 下述是一個例子.

    [for example]

    FortiAP[DMZ]FGT 110C(TP)[wan1]<==>[wan1]FGT 60C[wan1]VTU-R

    <<includes>>{

    vap1[DMZ]FGT 110C(TP)[[email protected]]<==>[[email protected]]FGT 60C[wan1]VTU-R

    vap2[DMZ]FGT 110C(TP)[[email protected]]<==>[[email protected]]FGT 60C[wan1]VTU-R

    }

    110C處於TP mode, 這表示主要只負責firwall與UTM的單純業務, 60C則作為DHCP Server配發IP, vap稍後會再提起, 你可以當作FortiAP作為PHY可以建立多個VAP(Virtual AP), 這是與其他AP非常不同的地方, 而且具實用價值. 從上述例子可以看出似乎是非常合理的, 當然一般情況它是可以運作, 由於牽涉到這是混合架構, 又有VLAN實作, 這時可能會導致網路效能下降, 有時開網頁莫名其妙出錯. FortiGate預設會是同一個collision domain[def: 0], VLAN的多組產生會涉及到效能上的議題, 因此需要特別處理, 可以透過CLI將collision domain進行切割: set forward-domain [var|var is number].

    201209221830.gif

    切割完後使VLAN隔離(*), 有效提升網路性能(非常重要!), 不過在這個例子下會使得FortiAP發生異常.

    * 做VLAN時, 建議把VLAN上的PHY透過CLI將vlanforward關閉掉, 避免VLAN封包被轉發到全部介面上.

    當使用110C 作為FortiAP(WTP)的通訊設備(AC), 這表示WTP會建立在110C(AC)上, 由於針對VLAN導致網路效能嚴重下降, 必須切割collsion domain隔離, 但是卻發生FortiAP無法通訊的情況. 也就是說collision domain雖然被切割掉, 在獨立的情況會被判別不會碰撞, FortiAP(WTP)建立在110C的TP模式下, 使得60C作為DHCP server莫名其妙收到重複的流量訊息. 以下是透過CLI的簡單ping測試:

    201209221416.gif

    因DHCP的階段可能會導致FortiAP的異常通訊, 顯然在這種情況下, 怎麼試都不會通. 這表示AC-Discovery階段不會成功. 有幾種solution可以避開:

    1. 透過FortiAP的CLI(BusyBox)設定為static configuration可以完全避開, 使用unicast通訊.

    2. 將110C的TP mode改為NAT mode, 當然! NAT與TP的記憶體資源占用有不同的明顯差異.

    3. 將WTP的建立做在60C(AC)上, 同樣可以達到效果. 但是FortiAP建立的VAPs便會無法透過110C進行業務功能操作, 例如QoS.

    顯然, 第一方案是可以考慮的, 但是必須要從FortiAP的BusyBox進行對組態參數的更改(*). 當然! 第二方案也是可行, 不過TP轉NAT可能會破壞現有網路架構, 而且NAT會大幅提升記憶體資源占用, 另外不會pass-through. 最後的solution不是不行, 但是沒甚麼意義! 因為FortiAP的Gateway UTM不會對FortiAP建立的VAPs進行任何操作, 它僅僅只是轉發(只是一個bridge). 因此這個方案不如把FortiAP接在60C下.

    * 如果使用FortiWiFi則可以透過FortiOS的CLI進行修改.

    在上述的案例, 如果僅僅只是單純的混合架構, collision domain沒有切. 那麼可以不必理會, 但是要注意mutlicast的轉發:

    201209221443.gif

    總結說明在AC探測(Discovery)下, FortiAP與FortiGate總共提供的通訊模式(port: 5246, udp):

    1. Multicast, 預設模式, 可以跨domain

    2. Broadcast

    3. Static IP, unicast, 效率最高

    Broadcast我沒提到, 但是我不建議使用. 特殊的案例推薦使用Static IP, 除了不必為了一組AP建立DHCP之外, 還可以節省記憶體資源. 如果是以FortiWiFi作為轉換(將WiFi unit上的無線AP功能切換到managed AP轉交給其他FortiGate管理與資源負載), 使用的做法比較不同, 以下是相關的commands:

    201209221450.gif

    AC-Discovery即為FortiAP的佈署階段, 這個前置作業非常重要! 根據不同的環境進行設定與維護, 預設模式(Multicast, DHCP)並不一定符合需求, 得視當時的條件而定.

    在預設的DHCP模式下, 從DHCP server, 如果是FortiGate會有一些特殊設定. 如下圖所示的DHCP Server建置畫面:

    201209221401.gif

    從上圖看到特別需要提起的是紅框圈選的Options項目部分, 即為OPTION CODE, 這個CODE主要可以與FortiAP或著FortiWiFi預設的OPTION CODE進行核對與綁定.

    201209221504.gif

    OPTION CODE如果為符合, 便可以和FortiAP(AC)進行綁定(bind), 將輸入的16進位(Hex)轉換為IPv4位址指派給FortiAP:

    C0A819C3=> C0.A8.19.C3=> 192.168.25.195

    如果同時存在兩組AP以上, 則需要將其它的AP進行OPTION CODE的更改, 以免衝突. 此為一個簡單的DHCP配置ForiAP應用. 當multicast廣播時, FortiGate便會探測到FortiAP的存在, 這時從Managed AP項目可以看到新增的控制器.

    201209221522.gif

    預設是未授權, FortiAP必須要事先經過授權過後才能通訊使用. 但是在授權之前, 相關的AC探測會試圖完成(失敗的話會是Disconnected).

    201209221523.gif

    當授權認可過後, 便可以對該AP進行配置與維護. 並且可以查看AC探測後相關的連線資訊.

    201209221524.gif

    除了查看資訊以外, 也可以升級f/w, 反授權與重新啟動等…這些操作. AP的設定不會是固定, Fortinet可以彈性設定多組的AP profile進行客製化. 這部分必須是機型的model而選定. 如下圖所示:

    201209221525.gif

    FortiAP 220B支援dual-band, 因此可以運行在2.4G和5G的不同頻帶下, 但是5G只能在radio 1下設定. 有一點要注意! 40MHz頻寬只能在5G使用, 2.4G不支援. FortiAP允許多SSID共通綁定, 除此之外使用FortiOS也可以設定多組Managed AP綁定同一個SSID. SSID部分是這款AP與其他AP稍微不同的地方, FortiAP可以當成是一個PHY, 從這PHY建立多組的VAPs(有限制, 大約可以建立14組左右).

    201209221834.jpg

    各種VAP可以適用在不同的業務管理, 比方說水平式布局管理各部門配置, 以policy-based configuration配置不同部門所能使用的QoS, 封包優先權等…

    201209221526.gif

    一組SSID的建立會綁定一組虛擬介面的產生(可以當成是一個VAP), 同時也可以決定是否配置DHCP. 視當時環境而定, 下圖為SSID的建立畫面, 這是TP模式下部分, 如果為NAT模式則會多出DHCP的配置設定.

    201209221527.gif

    SSID建立會綁一組虛擬介面, 即為一個VAP, TP模式下可以使得多組SSID透過policy對應同一DHCP Server去共網段. 如果NAT則需要換一些手法, 例如做combined, 可參考相關的文獻:

    http://kb.fortinet.com/kb/microsites…200%2037796535

    從上圖可以看到Rogue AP Settings部分, 以為AP Scan機能. FortiOS提供的AP Scan可以如下配置:

    1. 建立獨立的Monitor去綁在某個radio下

    2. Monitor可以與一般資料收送混合傳送.

    201209221530.gif

    第一方案不會有任何干涉, 他是獨立的, 因此不會影響. 第二方案會影響一般資料傳輸, 它一定要透過CLI進行微調. FortiAP對於AP-scan機能操作會在本身的MIPS處理器這邊做掉, 因此他不會太大影響FortiGate的CPU機能, 但是FortiWiFi的情況就不一樣了, 該unit內置的WiFi controller使用AP-scan將會對CPU造成明顯的影響. 以60C來說, 將會消費15~20%的CPU資源, 因此可以說是相當寶貴.

    201209241554.jpg

    當啟用AP-scan機能後, 便會定期執行背景掃描. Rogue AP On-Wire是一種授權防護機制, 可以對跨入到FortiAP的連線裝置進行封鎖. 這項機能啟用之後, 便會出現一個新的GUI monitor提Rogue AP的預覽, 如下圖所示:

    201209221831.jpg

    從上圖可以看出透過右鍵選擇是否標記為Rogue或著Accepted, 決定接受連線或著封鎖. 該功能會定期產生回報(report), 從Event Log可以查看. 如果將AP-scan合併成背景掃描活動, 可能會影響無線網路傳輸性能, 因此需要藉由CLI進行調整:

    201209221832.jpg

    AP-scan的週期回報是15秒左右, 這是預設值. 當然! 可以透過CLI進行調整, 最高可以拉到600秒做延期回報.:

    201209221833.jpg

    預設情況下, Log Config的Wireless Event Log是開啟的, 可以從Event Log部份去查看相關的Rogue AP紀錄資訊, 如下圖所示:

    201209241559.gif

    當相關的設定完成時, 便可運許client端透過FortiAP(WTP)連入到FortiGate(AC), 配發IP進行網路連線, 相關的資訊除了在DHCP Monitor可以查看之外, 也可以透過Client Monitor查看當前的無線用戶端資訊, 如下圖所示:

    201209241606.gif

    另外也可以在Dashboard部分, 使用Traffic History選定有關的VAP介面來監控當前的無線網路流量:

    201209241610.gif

    自Fortinet發展出專有的ASIC加速電路-FortiASIC, 其中有一項為Network Processor, 簡稱為NPU. NPU對於網路效能上有巨大的影響.

    201209241620.gif

    NPU通常提供規模性的封包I/O加速, 另外也兼任VPN的加速業務. 通常只有中高階以上的機種(100D, 200B or up)才具備這項ASIC加速, 在新型的低階機種FortiGate 60C(or FortiWiFi)也提供的NPU設計(稱為NpLite), 有效的NPU加速為FastPath, 不會丟到CPU的SlowPath情況. 能巨大化網路效能, 可惜的是從wireless出來的traffic無法被NPU乘載, 只能被CPU照單全收, 大量的情況下會對性能造成衝擊, 尤其以FortiWiFi來說, 提供了NPU, 但是wireless traffic無法丟入, 很容易對效能造成重大傷害. 一種改善方案就是作為managed AP接到性能更強的機器, 例如200B(Celeron 1.2GHz, 2GB DRAM, NP2, CP6), 作為AC進行wireless traffic的相關I/O操作.

    201209241644.jpg

    使用這樣的方式對於網路效能上有一定程度的改善, 而且UTM, QoS Traffic Shaper也無法丟入NPU進行加速, 因此需要機能較強的FortiGate來操作.

    最後, 在這裡總結對於FortiAP的一些重點:

    1. 使用CAWAP標準, 因此跟一般的AP不同, 他需要FortiGate作為AC進行中央管理.

    2. AC-Discovery得視當時的建置情況而定, 通常原廠預設足以應付大多情況.

    3. 跨PHY之上的VAP管理, 提供各彈性的多點配置.

    4. Rogue AP機能在FortiWiFi機種會明顯消耗CPU機能; 而FortiAP則是內置的MIPS處理器做掉.

    5. 如果可以, 最好的設置方案使用Static IP configuration進行佈署.

    6. 未來的FortiOS 5.0會大幅提升無線網路性能, 屆時會有明顯的改善.

    7. wireless出來的traffic無法被NPU進行加速, 只能CPU全部吃掉.

    8. 基於CAWAP標準, AP與AC之間建立的tunnel, 只有control traffic能被DLTS進行加密.

    9. 多組FortiAP可以實現無縫漫遊機能, 多個AP的PHY可以共綁一組SSID. 一組SSID可以當成一個virtual interface.

    10. 提供PoE支持, 但是需要PoE設備來供電.

    12. 支援2.4G和5G頻段, 但是40MHz頻寬只有5G支持.

    13. virtual interface可以和其他physical interface共綁在同一網段, 但是需要特別設置.

    下面是關於FortiAP以及FortiWiFi的規格差異比較:

    201209221849.jpg

    *FOS v5.0 improvement:

    1. IDS supported.

    2. VLAN supported.

    3. improve wireless performance.

    4. enhanced mesh network supported.

    5. improve CAPWAP support.(data channel encryption(s/w-based)).

    6. Client Load-balancing(Freq&AP).

    7. WTP mode is not supported.

     

    關於我們

    X86 團隊成員 是一群 失學 失智 反社會 IT界魯蛇Loser組成

    共有:

    x86 仇笑癡
    x86 非神童
    x86 雜魚
    x86 蘿莉迷
    x86 小妹

    黑蘋果 DSDT 原理教學

    (還沒寫完)
    傻瓜黑蘋果教程 看了一堆 黑蘋果網站 只會叫你 照著做 也不會跟你說清楚怎做的

    ACPI – the Advanced Configuration & Power Interface. ACPI是OS,BIOS和硬件之間的抽像層。它允許OS和平台獨立的發展,比如新的OS可以控制老的平台,老的OS也可以控制新的平台而不需要額外的修 改。ACPI的基本結構圖如下:

    計算機領域的一個基本方法是增加一個抽像層,從而使得抽像層的上下兩層獨立的發展,ACPI事實上也是借鑒類似的思想。ACPI的抽像主要是通過ACPI表中提供的信息來實現,這些信息包括ACPI寄存器、AML代碼、配置信息等。

    ACPI寄存器,描述了和ACPI相關的寄存器。OS可以直接從ACPI表中取得這些寄存器的信息,因此不必了解具體的硬件配置。

    a827cad388b8f8453bf3cfd5.jpg

    DSDT

    獲得 DSDT 方法

    $sudo cat /sys/firmware/acpi/tables/DSDT > dsdt.aml

    or

    $ acpidump > acpidump.out    "ACPI BIOS tables"
    $ acpixtract DSDT acpidump > DSDT.aml "把 ACPI BIOS DSDT Table 取出來"

    注意 提出的 AML 是 ACPI機器語言(ACPI Machine Language (AML))
    這是ACPI相容的OS支援的虛擬機器的虛擬碼(Pseudo-code),已是編譯過的Binary Hex.

    必需用 isal (Intel ACPI Source Language compiler/decompiler)工具
    轉換成 DSL 標準文本文件

    ACPI源語言(ACPI Source Language (ASL))ASL編譯以後就是AML映像(AML images)

    Scope (_SB.PCI0.LPC) { OperationRegion (LPCS, PCI_Config, 0x00, 0x0100)
                                     Field (LPCS, AnyAcc, NoLock, Preserve) { Offset (0x60), PIRA, 8, }'   }
    Device (LNKA) {                     Method (_DIS, 0, NotSerialized)
    {                   Or (\_SB.PCI0.LPC.PIRA, 0x80, \_SB.PCI0.LPC.PIRA) } }

    比如想禁止LNKA設備,ACPI規範定義了OS必須執行此設備的_DIS函數。從硬件的角度來講,禁止LNKA設備需要將某個PCI設備的配置空間的寄 存器0×60的最高位置上。OS不需要知道硬件的細節,它解釋執行_DIS函數即可。上面的代碼就是AML代碼,由BIOS提供,語句‘Or (\_SB.PCI0.LPC.PIRA, 0×80, \_SB.PCI0.LPC.PIRA)’實際上就是給寄存器\_SB.PCI0.LPC.PIRA置上最高位, 而PIRA就是PCI設備LPC的配置空間的寄存器0×60。從此段代碼我們可以明顯的看出BIOS以AML代碼的形式隱藏(抽像)了硬件的細節,從而使 得OS看到的是一個平台無關的硬件

    為何

        ACPI: RSDP (v000 GBT ) @ 0x000f6d20
        ACPI: RSDT (v001 GBT AWRDACPI 0x42302e31 AWRD 0x01010101) @ 0x3fff3000
        ACPI: FADT (v001 GBT AWRDACPI 0x42302e31 AWRD 0x01010101) @ 0x3fff3040
        ACPI: MADT (v001 GBT AWRDACPI 0x42302e31 AWRD 0x01010101) @ 0x3fff7080
        ACPI: DSDT (v001 GBT AWRDACPI 0x00001000 MSFT 0x0100000c) @ 0x00000000  /*这一行有MSFT*/

     

    DSDT Editor 下載
    編譯使用Windows 下編譯比較成功

    自定的 DSDT 取代原本機器上的 table    將檔案放到 /boot (Linux)  /Extra  (OS X)

    回寫bios

    參考連結

    1. 我有分寸*Beta
    2. http://hi.baidu.com/sinbad_li/item/7…39d8145050583e
    3. http://www.macbreaker.com/2012/03/ma…dt-editor.html
    4. http://fred-zone.blogspot.tw/2008/10…ion-table.html
    5. http://blog.csdn.net/nksmiles/article/details/7466067

    10G 網卡與高速光纖替代網卡

     

    一般來講infiniband 用於Cluster 運算環境比較多
    但是用於虛擬化或一般TCP/IP 相關應用少, 因此市場有賤賣這類介面卡.實際上此為價格性能比超高的物理性連結設備

    以下以mellanox 的 MHEL-CF128-T ( pci-e 規格 InfiniBand InfiniHost III Ex 晶片 dual port 10G 網卡 ) 為例

    Mellanox原廠說明書有下面幾本.
    Windows :驅動與subnet manger 啟動方法
    http://www.mellanox.com/related-docs/prod_software/MLNX_VPI_Windows_user_manual.pdf

    Linux  主要為ofed組織 opensources driver
    http://www.mellanox.com/related-docs/prod_software/Mellanox_OFED%20_Linux_user_manual_1_5_2-2_1_0.pdf

    Esx 驅動主要也為OFED Driver
    http://www.mellanox.com/related-docs/prod_software/IB_OFED_for_VI_3_5_and%20vSphere_4_installation_guide_1_30.pdf

    infiniband gpxe boot
    http://www.mellanox.com/related-docs/prod_software/FlexBoot_user_manual.pdf

    正確啟動Inifniband 網卡
    1.抓驅動與安裝  2.抓燒錄程式與安裝 3 .抓firmware 4.修改Driver 5.啟動Subnet Manger

    下載Firmware
    http://www.mellanox.com/content/pages.php?pg=custom_firmware_table

    FW有分穩定版跟Beta版
    燒錄firmware 有不同程式
    可參考

    舊版用 flint 就可C:\Program Files\Mellanox\WinMFT>>flint -d -s – t – mt25208_pci_cr0 -i CF128.bin -nofs burn

    要額外燒boot rom
    mlxburn -dev mt25208_pci_cr0 -fw fw-25208-rel.mlx -conf MHEL-CF128-T.ini -exp_rom IHOST3EX_PORT2_ROM-1.0.0.rom -skip_is –t- -c

     

    安裝好 重新開機會出現  多二張網路卡 線已裝好 燈號也亮 但是顯示斷線

    一般"正常狀況下"
    infniband 應用狀況 都會有硬體 infniband switch ,但一台 8 port nt 4萬以上
    二臺直接對接用一般CX4 Cable 燈號有亮
    但是都是顯示offline

    IB 架構要有Subnet Manger 才能正常工作
    而硬體switch 會內建此功能 因此需要再啟動

     

    一般FC HBA 只有Stor miniport  driver 時則在windows 下只能做 FC Storage HBA
    如果想要以 Storage HBA CARD (2G ,4G )替代 NIS Card 就要有NDIS Driver

    但是不少廠牌會有限制
    像 Qlogic QLA 23xx (2Gbps ,PCI-X) 在windows XP, 2003 32bit  才下有NDIS Driver ,其他OS 就不可

    linux 可直視FC HBA 為Networking Card
    http://filedownloads.qlogic.com/files/driver/35491/README_qla2xxx2-6.htm

    將FC Card 做NDIS 好處是.Latency time 更低, 線路好維護. 速度更快..

    昂貴的CNA converged network adapter)
    則是 Enthernet + Fiber Channel(FCoE) 同時做在一張卡

     

    10G 網卡好處是..NAS OR SAN (Server端)+ Client 端本身I/O 有多高, 速度就都跟的上.

    A 機為 12 PCS 1.5TB , B 機為有11個 空Bay (方便做Data recovery跟拷出客戶資料用)

    A機與B機用 10G Lan對連`同時二顆HDD 用CIFS 都可全速…(應該可以同時5顆 全速…)


     

    Mellanox 有下面說明 可以參考

    # LAN and SAN functionality is available over unified server I/O using high bandwidth InfiniBand connectivity. This reduces cabling complexity and reduces I/O cost (50 – 60%)   and power (25-30%) significantly
    # LAN performance (from VMs) of close to 8X Gigabit Ethernet has been achieved
    # SAN performance (from VMs) of close to 10X 2Gb/s Fibre Channel has been achieved
    # LAN and SAN performance scales linearly across multiple VMs
    # Ability to expose multiple network and storage adapters over a single physical InfiniBand port allowing the same ‘look and feel’ of traditional storage and network devices

    其實以我們實驗室這樣做法(IP over IB ) 是無法全功能性發揮 infiniband 效能

    因為能以SCSI RDMA Protocol 的話 才是能將IB 發揮到最大性能
    商業軟體上只知open-e 可以.
    http://forum.open-e.com/showthread.php?t=1341

    IP over IB 模式下 是  2K MTU, IPoIB MTU  2048 – 4 = 2044 bytes.

    在 SCSI RDMA 模式下
    MTU 可到 64K  一次可吐更大量 UDP ,TCP /IP 封包 傳輸量更大.

    在此模式下會把FC 8Gbps 都甩開…

    跟FC 相比
    1.FC Driver 彈性比較低 .
    2. 4 Gbps FC Dual Port  Card  (NT 20000) 是我的 10 Gbps Dual port infiniband  1.3倍
    所以我把4Gbps FC card都清光了…官方標準IB card cost 是US 900 20Gbps * 2 port

    如果照正常價的話 FC 8G 大概會是Infiniband 20Gbps 價格 1.3倍

    當然也要說實話, infiniband 距離短 ,能參考文件 經驗少. 維護出包沒人問  所以一般廠商不方便以此建構..

    但是10 G Inifniband 不像於傳統1 Gbps lan 要team , 而4g ,8g FC 不見得有NIC 模式.
    其實常看廣播級剪接朋友 使用SAN +SAN Filesystem 是很大而無當設計
    單純的10G NIC+CIFS ,NFS 就可

    OSSLab 實驗室還是有留
    Emulex 2 Gbps FC (for solaris comstar fc target測試 ) ,
    Qlogic 2 Gbps 玩efi ,mac san boot

    到時研究 FCIP ,infiniband gateway 用

    參考
    http://communities.vmware.com/thread/213573

    以下為IB SAN 照片 ,HP ML150 G6 Server

     

    Server 端要這樣高 I/O 不是容易事

    一. 用DRAM DISK
    http://www.study-area.org/phorum/index.php?topic=63785.0

    二. 把OSSLab 1.5 TB *30 全換這款 SATA 6Gbps 新世代 2TB
    http://www.pcdvd.com.tw/showthread.php?t=921873
    以SATA 6Gbps 做碟海戰術

    希望能….如老外所說

    We developed a storage subsystem for native Infiniband and VMware.

    With 16 SAS disks performance from within Virtual Machine is around 2000 MB/s (seq. write).

    No cache, no SSD

    Windows Server 2008 64 bit, 2 v-processors, boots up in 6 seconds (power on to logon screen).

    自信目前這台自用 SAN ,在 filelevel +blocklevel  只論速度
    應該是把市面上幾百萬 雙E牌 ,N牌打的滿地找牙..

    不過管理面沒有啥 看滿意的windows 軟體.

    Seagate Constellation ES 2TB SAS版本跟一般SATA 7200RPM  速度沒有差

    二端都為 ram disk 網芳狀況

    Average 應該在3xx MB/sec

    用 NetIO 程式去打的 測試
    http://www.ars.de/ars/ars.nsf/docs/netio

    TCP connection established.
    Packet size  1k bytes:  147.47 MByte/s Tx,  60.39 MByte/s Rx.
    Packet size  2k bytes:  210.65 MByte/s Tx,  97.32 MByte/s Rx.
    Packet size  4k bytes:  231.89 MByte/s Tx,  134.88 MByte/s Rx.
    Packet size  8k bytes:  265.27 MByte/s Tx,  200.61 MByte/s Rx.
    Packet size 16k bytes:  285.12 MByte/s Tx,  254.70 MByte/s Rx.
    Packet size 32k bytes:  302.19 MByte/s Tx,  287.35 MByte/s Rx.

    我覺得高速file level 應用會增加.比如說剪接應用
    Tuning .翻過手冊  調過上面參數效果….

    可能要換成nfs 會好很多
    block level (ISCSI ,SAN ) 速度要達到400 ,500MB/ sec 以上應該沒問題

    下海測了 老版infiniband 20G, Tcp/ip SMC 效能 還是超過不了350 MB/sec 

    http://communities.vmware.com/message/1654925

    MTU is limited to 2044 bytes and that results in maximum bandwidth of about 150-200 MB/sek when performing fully cached reads. Not much better than 100 MB/sek for 1Gb Ethernet.

    老版infiniband card 因為MTU限制跟缺乏 TOE , 在Vsphere 下 做NFS (file level )應用慢

    Unhappy with that we went over to SRP and installed a SCST SRP target driver on the linux box and suddenly transfers raised beyond expectations. 700 MB/sec throughput is more than our harddisks can supply at the moment. Nevertheless one aspect does not scale as expected. 512b fully buffered random reads are still at the same latency as on normal 1Gb Ethernet.

    做SCST SRP  (Block level) 速度到滿意700 MB/sec ,但是512b (4k iops)
    隨機讀取效能還是跟1G 一樣

    http://communities.vmware.com/search.jspa?peopleEnabled=true&userID=&containerType=&container=&q=infiniband

    做高速Block level share 我是愛用SAS 用於虛擬化 Storage .
    http://www.study-area.org/phorum/index.php/topic,65644.0.html
    SAS HBA 速度打暴所有10Gb ,20Gb NIC 速度

    做高速File level 如剪接,
    則愛用IB ,FC CARD  2G ,4G,10G ,20G

    10Gb 規格將會有一翻激戰
    我個人是不看好 10Gbase -T ,功耗,latencty time ,hba+線材價格 .
    目前都輸10Gb 光纖或是infiniband等…

    使用10G 網路架構時 選擇好10G 規格是很重要的一部份
    或是從主要重要儲存Server 上的規格

    這樣才知周邊怎樣搭, 架構上怎處理

    10GBase 規格

    一.光纖

    10GBASE-SR
    10GBASE-LR
    SFP+ Direct Attach

    二.銅
    10GBase-CX1 (SFP +直連)
    10GBASE-CX4
    10GBASE-T

    以下為基本比較

    10GBase-T 乙太網路  佈線麻煩 價格高 功耗高 性能最差  (latency time最長)
    除了相容於 舊的乙太網路外
    在10G PHY 規格中是最差的

    在正常 高速I/O 規劃 打死我也不把1G 放入10G Lan內. 怕被拖到速度..
    所以我跟本不考慮 10GBASE-T網路卡
    如果要把10G 給1G 分流 會選擇主Storage server 上有sfp +頭, 再連到SFP + switch  再用switch 分 gigabit 出去

    10GBase-CX1 (SFP +直連) 成本上不高 不過距離只有 7M ,另外如果沒辦法對sfp+ eeprom 寫入的話, 可能大部份要用原廠的.

    10GBASE-CX4 ,連接頭跟線材跟inifniband一樣. Switch 應該可通用… 不過不一定代表此為infiniband 卡

    一般環境下 要看搭配Storage 有預算我會建議用  Fiber 10G ,沒預算用 Infiniband 10G

    10GBASE-SR ("short range") uses the IEEE 802.3 Clause 49 64B/66B Physical Coding Sublayer (物理編碼子層)
    波長850 nm    多模 標準om1 線 最大為80M , om3 線為300M

    10GBASE-LR ("long reach") uses the IEEE 802.3 Clause 49 64B/66B Physical Coding Sublayer (物理編碼子層)
    波長 1310 nm 單模 可傳送10 公里,不過常常可以到2x公里..

    以下為廠商介紹
    一般來講 10G網卡  都為CNA (converged network adapter)
    除了TCP/IP ,RDMA ,ISCSI  , FCOE  還都有 Open Fabrics 協定用於叢集電腦運算.

    很多10G 網卡出廠時 不帶 SFP+ 模組.要另外購買
    比如說 Broadcom NetXtreme II 57711 ,Intel X520-DA2
    Intel X520 -SR2 這類則是內建SR光纖發射模塊*2 .

    SFP +方式主要方便更換光纖模塊多樣方便

    1.Mellanox
    Infiniband 技術為主
    infiniband 支持GPU Direct 是最特別地方..

    infiniband 可以擴展到 單Card 雙 40Gbps port ,在此高速I/O 下必要要用PCI-E 3.0

    2.Qlogic
    光通道技術為主, 也有infiniband  ,跟一般網卡.不過當然最拿手技術為光通道
    這邊當然要講最高級 CNA QLogic 8200 Series
    http://www.qlogic.com/Products/adapters/Pages/ConvergedNetworkAdapters.aspx

    3.Emulex
    光通道技術為主 oneconnect系列
    http://www.emulex.com/products/oneconnect-ucnas.html

    4.    chelsio 光通道技術為主
    http://www.chelsio.com
    支持 OS X

    5.Intel
    除了10GBASE-T一般10G 網卡
    也有SFP+樣式 可轉光, 跟內建光纖模組卡.

    6.Boradcom
    10GBASE-T 為主

    要注意的是 不是每張卡會有 SR-IOV

    http://benjr.tw/node/698
    PCI-SIG 的 Single Root I/O Virtualization (SR-IOV) 的技術. 透過 SR-IOV 這一項技術更進一步提升 VT-d 的功能.他可以同時讓多個 VM 虛擬機與實體 I/O 裝置同時建立通道(communication channels).

    我會建議搭配卡 10Gbase -SR ,搭配現在給一般FC HBA光纖 線通用 ,LC頭.線就可  ..很便宜  20 M  我在深圳買nt 1xx.
    因為一般舊 FC HBA 也都是配多模  波長850 nm發射器

    一般高速卡是用做成SFP +型式, 要注意價格含不含光電模組… 如果購買就選用 10GBASE-SR  LC頭 是比較通用選擇

    10G switch 一般都是SFP . SFP也可轉光或電

    我是買不起下面
    一台 24 port 10G switch + 2 張 10G CNA 光纖卡 + 4 SFP .嗯 特價要50萬。…. :P
    http://www.facebook.com/event.php?eid=181003555286914
    所以寫這一串筆記…..

     

    IB 用了快10個月了 遇到一些問題
    一.MTU 太小 隨機I/O 很爛

    二 前陣子才剛上線ESX 5

    但發現Mellanox  老款跟 ConnectX   (InfiniBand/VPI Cards )
    ESX 5下驅動還沒出
    http://communities.vmware.com/message/1838767#1838767

    改用Mellanox  ConnectX EN  可支持ESX  但是 這樣就少了
    OpenFabrics Enterprise Distribution (OFED)驅動 而且夭壽貴

    三.  (InfiniBand/VPI Cards ) 本身不是真正底層Storage card
    boot lun 應用有不少問題 (這部份文後有詳細討論)

    因此 OSSLab 一直想更換張真正 高性能的 10G (網路卡+Storage HBA 混合卡)
    但是這張卡正常報價在NT 6萬跑不掉
    買個三張 =18萬 :(

    後來找到

    會這樣便宜是因為廠商不知道oem 料號跟原廠料號批配性 所以隨便賣了 不過有限量 大家就參考看看
    並且這不帶sfp+ ,10G sfp +買起來大概也要6k * 1.

    這張同於 Emulex  OneConnect   OCe10102 CNA
    只是不帶SFP + 光電轉換頭了
    這頭很貴 有買  但是也會拿SFP+線 短距對接

    萬兆SFP 對接線
    http://item.taobao.com/item.htm?id=14320236857
    http://item.taobao.com/item.htm?id=10876591099

    CNA 是converged network adapter縮寫
    共有下面功能 四合一

    OneConnect 10GbE Network Adapters
    OneConnect 10GbE FCoE Converged Network Adapters
    OneConnect 10GbE iSCSI Adapters
    同於Emulex  16G FC HBA 驅動可共用

    驅動支持度還不錯
    http://www.emulex.com/downloads/emulex.html

    先來看圖 說清楚FCOE 應用狀況
    網路上可以查到一堆
    [COLOR="Red"]FCoE是規範將光纖通道(Fibre Channel)訊框直接映射為乙太網路訊框後,在底層為乙太網路上傳輸資料的協定。 [/COLOR]

    這樣講太理論 請先看圖

    FCOE協議最大功用是能讓高速網路卡去存取舊有的FC Target Storage.
    讓fc 跟tcp/ip 硬體共用

    比如說你想要讓你的一般10G  網路卡存取FC SAN storage Lun 硬碟.

    一般卡 沒有FCOE 硬體運算協定轉換 (Intel 10G ,Broadcom 10G 網卡都沒 只有補助運算) ,
    先要搭配 open-FCoE 或其自家 software fcoe initiator
    可以讓系統產生 FC Frame 然後讓 NIC 將此FC  Frame 封裝在傳統的 Enternet Frame
    前端可以為一般網路通道 (傳統 乙太 Switch ,網路線)  ,後面為再透過Fcoe Switch 轉光纖.
    再接上FC SAN  就可以Mount 存取 FC SAN 的Lun.
    .
    但是透過openfcoe跟設定  是比較麻煩

    再者,如果要做fcoe lun boot的話,軟體協議的卡.用software  fcoe initiator
    無法視為本地硬碟….安裝OS 在 FCOE Lun有不少問題

    Fcoe 硬體卡  就內建協定訊框轉換 如果直接接SFP + 再接10G Fcoe Switch  ,再轉光纖 FC SAN Stoage .就可存取

    一般CNA 是SFP +口  , 再配sfp+ 光電模組
    就可變成 10GBASE-SR or 10GBASE-LR (10G 光纖標準)

    如果都為光口  OCe10102 CNA  也等於傳統Fibre HBA LPe16000光纖卡 (驅動完全通用) ,可以直接接上老款FC Stoage Switch 或是 FC Target儲存設備

    配上圖 這樣大家對FCOE 應該有更完整觀念 請大家把這觀念弄清楚
    ——————————————————————————-
    那什麼是iscsi hba ?
    簡單講 目前的intel or boardcom  lan card 配上iscsi option  boot rom 是IBF
    並不是真正的 storage hba .


    先掛載了software  iscsi  initiator 再  load  IBFT(iSCSI Boot Firmware Table)

    這種狀況如果想要在iscsi boot lun 亂裝 OS 相容性很差
    比如說vmware vsphere 4 就不可以以此方式安裝在Lun, Vsphere 4i  ,5i就可

    因此有 iscsi hba 卡..
    像Qlogic QLA4050 ,QLE4060 iscsi hba
    iSCSI HBA 是一張透過以太網路跟 Storage 連線的 SCSI 卡
    OS視為"這種長的網卡東西"為Storage HBA

    目前CNA  主要由三大廠Qlogic ,Emulex , Brocade 我個人是建議前二家

    最終目標是打造出 ISCSI  + FC +  NFS + CIFS 四種協定的萬用Stroage 以方便工作上使用 測試

    http://blog.laspina.ca/ubiquitous/multi_protocol_storage_provisioning_with

    參考
    http://benjr.tw/taxonomy/term/74
    http://www.ithome.com.tw/itadm/article.php?c=66226

    共買了 3張卡+ 6 SFP+ 東西在飛機上  繼續自虐…

     

    其實自己或客戶工作環境 用不到的東西 沒經驗正常

    完全照原廠設定處理會省事
    但是如果客戶有奇怪需求  混合一些新舊設備 就要對原理架構瞭解

    Brocade 幫IBM 跟Server 前三大廠都有代工. Brocade 算是最早推出 16Gbps FC card公司…( 去年初就有)
    Brocade 16Gbps FC HBA 可做CNA ,Emulex  16Gb FC 就很單純 FC HBA 沒有CNA 功能,Qlogic 還沒正式出貨 16Gbps FC HBA

    http://benjr.tw/node/698

    Brocade 1860 CNA Fabric Adapter 會有二種SFP+

    做 10G CNA  用10GBASE-SR ("short range")   sfp+
    做 16 Gbps FC HBA 就要用 SWL SFP+

    2G ,4G ,8G 16G 都還是可用 OM1~OM3 MF (多模) 線….不用從新佈線  不過速度越高 最大距離越短