家鄉小吃范文
時間:2023-04-01 08:21:22
導語:如何才能寫好一篇家鄉小吃,這就需要搜集整理更多的資料和文獻,歡迎閱讀由公務員之家整理的十篇范文,供你借鑒。
篇1
溫嶺市澤國小學
四六班
盧佳菀
每個地方都有各自的小吃,小吃剛好代表了這里的特色。吃小吃就能吃出這個地方的風味。
嵌糕就是家鄉小吃的一種。太陽剛升起來,街上就有人開始擺攤。一張桌子上,放著各種各樣的餡料,旁邊堆著一大段糕,用塑料布遮得嚴嚴實實的。不一會兒,就有人來買了。只見賣主打開塑料布,迅速切下一小段糕,把塑料布再蓋回來。再用手把糕放在桌子上搓成長條狀,用手按壓,壓成一個糕包,尾部粘起來,再根據客人的要求放上餡,接著把旁邊都粘起來,只剩下一個口子,澆上湯,就很好吃了。又香又韌又柔,回到家鄉一定要吃一個,才有回家的感覺。
炊圓也是家鄉的小吃。但只在有喜事的時候才能吃的。炊圓做工精細,先是把糯米粉摻上水,和成一大團,再使勁的揉幾下,直到已經有點韌性時就可以了。再取出一小塊,揉成圓形,用大拇指在中間按壓一個窩。接著在窩里放已經炒好的餡料,再把窩口封住就好了。然后放進籠里蒸。這可大有講究,如果不按指定時間蒸好,汁就會溢出來。
篇2
鉛山快樂作文培訓學校二年級
黃思怡
我的家鄉鉛山是個江南古鎮,這里環境優美,物產豐富,尤其是小吃種類繁多,遠近聞名。我要夸夸家鄉的小吃——肉絲粉。
先介紹它的制作過程吧。第一步,把米磨成米漿,水弄干以后揉成團,放在又細孔的木榨當中壓榨出又細又長白白凈凈的米粉絲。 第二步做粉湯。把新鮮的豬肉切成絲,放進鹽、醬油、拌上紅署粉,再放進肉骨湯里燙熟。第三步,把米粉,放進開水中燙熱裝在大碗里,澆上肉絲骨頭湯,放點蔥、生姜末、就可以吃了。
肉絲粉又細又滑、柔嫩可口,味道鮮美,人人都愛吃,它成了我們早餐的首選。許多外地客人來鉛山都會品嘗一下它的美味,勤勞聰明的鉛山人也把小吃店開到全國各地。因此,它的名氣也越來越大。
篇3
魚香肉絲是我們這兒著名的風味小吃。
魚香肉絲的味道好,看相也不錯。一個盤子中有綠油油的青椒,紅艷艷的蘿卜,黃澄澄的肉絲格外顯眼,再澆上火紅的辣湯,真令人垂涎三尺。
魚香肉絲的做法很簡單,把肉,胡蘿卜。青椒都切成絲備用。在鍋內倒入少許油,放入肉絲炒熟,讓后倒在盤子里,再往鍋里放入生姜,蔥,辣椒,番茄醬,料酒等調料爆炒片刻,然后放入蘿卜,青椒,翻炒,幾分鐘后一盆色香味俱全的魚香肉絲便做成了。
篇4
我親愛的媽媽在廿里鎮的紅塔超市上班,鎮上有我最最喜歡吃的大烤餅。我喜歡吃又圓又大的烤餅,但不喜歡吃那種長長的烤餅??撅炗袃蓚€品種,兩種口味。一種是里面放了霉干菜的,味道有點甜,風味獨特;另外一種里面是榨菜餡的,我也挺喜歡吃。
剛做出的烤餅很香很香,大老遠都能聞到香氣,聞一聞就會流口水。所以,每次經過烤餅店時,我都會讓媽媽買一個嘗嘗。
有機會的話,我希望其它地方的小朋友能來我家鄉玩,嘗嘗這兒的烤餅吧!
篇5
怡園小池雖然簡單,卻很美。在小池旁邊有一座小小的假山,假山上有兩個大大的字——怡園;小池周圍有一個密密的小樹林,樹林長得郁郁郁蔥蔥的,隱隱約約可以看見幾張用石有關當局做成的桌子和凳子,正好和小池旁邊用鵝卵石鋪成的小路相映襯。
彎彎曲曲的小路包圍著小池。小池的水清清的,一眼就能看見池底那各色各樣的鵝卵石,有的像星星,有的像月亮,有的像小鳥……可惜沒有魚,少了一點生機。
站在水邊突起的石塊上能感覺到一絲絲涼意,突然,一顆石子落到水中,就濺起了小小的水花,水花像珍珠般閃亮,照出了紅、黃、綠、藍、紫、白等光,五顏六色,美麗極了。
篇6
【關鍵詞】 普通高校;武術教育;價值功能
一、前言
正確認識武術教育的價值功能事關普通高校武術教育的發展方向。武術教育伴隨時代的變遷而發展變化,不同時期有著不同的發展目標。在新的國際形勢下,在實現中華民族偉大復興中國夢的征程中,武術教育能為實現中國夢增強文化軟實力,在多元化的信息時代,普通高校武術教育價值功能的研究應放眼于全人類的高度,呈現出多樣化的發展態勢,高校武術教育的價值功能要承載世界范圍內的普及與推廣、文化的傳承、保衛國家利益、培育民族精神的功能,高于體育本身。
二、堅持高校武術教育的正確價值導向
1、武術教育的定位應重文化教育,絕非體育教育本身
武術源于中國,源遠流長,它是在中國幾千年的歷史和文化中孕育形成和發展起來的,蘊含著中華民族深厚的文明歷史和燦爛的文化,武術之所以能經久不衰,有驚人的生命力,不僅僅是因為武術具有強身健體和技擊價值,更重要的原因在于武術的文化魅力。主要體現在禮儀、武德、和諧,“未曾學藝先學禮, 未曾習武先明德”。古代時,要想學習武術首先要學禮儀,在現代,武術界的“抱拳禮”依然體現著武術以禮為先的文化特性。禮儀潛移默化的影響大學生要尊師重道,構建公正、正義、公道的道德準則。武德是在傳統倫理道德基礎上形成和發展起來的,它不僅僅對習武者有制約機制,更重要的是通過習武的錘煉過程,培養大學生遵紀守法、奮發進取、勇敢頑強、心胸寬闊、不怕困難、敢于競爭、勇于奉獻等良好的修養,能以寬厚的德行看待世界。加強他們以弘揚民族精神、傳承民族文化為己任的責任心和民族自豪感。“和諧”觀的構建是武術追求的又一境界。自我身心和諧、人際間和諧及人與自然的和諧?!昂椭C”觀能引領大學生珍愛生命,提高生命價值、而不僅限于生活質量,實現人與自然、人與社會的和諧健康發展。因此,普通高校武術教育要改變以往的以傳習技能為主的教育模式,注重文化教育。
2、面向全世界,普及與推廣中華武術
優秀的文化應該屬于世界,被世界人民分享。武術作為我國優秀的傳統文化體育項目,至今還沒有被列入奧運會的正式比賽項目,作為高校武術教育應面向世界,加強武術的普及與推廣工作。學校教育是武術發展的重要陣地。縱觀日本的柔道和空手道,韓國的跆拳道民族體育項目,它們的傳播都是先通過學校教育的普及與推廣,逐步滲透至社會層面,最終成為世界人民共享的體育文化財富。大學生是祖國未來建設的主力軍,人群龐大,具有較高的道德、文化素養,是文化傳播的重要力量,因此,普通高校武術教育不僅要從技術層面普及與推廣武術,而且要教育大學生在武術的國際化發展、推廣武術文化方面發揮重要的作用。
3、傳承武術文化,融合世界優秀文化,符合世界文化發展方向
武術在中國道教、佛教、儒家思想傳統文化的影響下,融合了哲學、倫理學美學、中醫學、兵法等,具有獨特的文化形式。隨著世界經濟、文化的全球化發展,在新時期世界文化交流,優秀文化共享的背景下,武術技能和文化傳承教育相結合是當今高校武術教育的發展方向。這對于大學生強化民族精神,弘揚民族正能量,內化人格魅力,構建正確的人生觀、世界觀和價值觀等具有重要的意義。在世界文化發展中,各國文化共同發展,也相互沖撞。武術不僅具有民族性,而且與世界上任何體育項目一樣,具有世界性,武術的民族性和世界性是對立統一,不可分割的,武術文化的傳承離不開世界性,要讓世界人民了解和接受中國武術,了解武術文化魅力,就必須處理好武術文化與世界文化之間的關系,把握世界人民的文化需求,符合世界文化發展方向,融合國外優秀文化。高校武術教育要注重對大學生在中國武術文化與世界優秀民族文化方面的教育,使他們獲得全面、豐富的知識,有利于與世界人民溝通、相互學習與交流,有利于武術文化的傳承。
4、國家利益為重,弘揚民族精神
中國傳統社會中,由于家庭本位和國家一體制,群體價值高于個體價值,家庭、國家高于個體的絕對價值,使中國文化形成了群體本位價值觀。這種傳統觀念對武術產生了很大的影響。習武者展現出的是一種民族精神氣概,不計較個人得失,維護國家和集體利益、團結和諧的民族向心力。隨著社會主義市場經濟的發展,人們的需求也隨之提高,不僅要得到一定的物質需求,而且還需要得到一定的精神滿足,不可避免會使一些人價值觀迷失,信仰偏差,喪失了正確的理想和信念,物質、欲望、金錢沖昏了頭腦,拜金主義、實用主義、功利主義吞噬著他們的心靈。高校大學生正處在人生觀、價值觀、世界觀形成的不穩定階段,更易于導致價值取向的扭曲,迷失正確的人生發展方向,目前高校存在著部分大學生追求實惠,貪圖享樂,以個人利益為重,不關心國家發展,以自我為中心,嚴于批評別人,不善于反思自己的現象。在當前國際形勢復雜、多變,各國間競爭激烈的國際形勢下,中國作為發展中的大國,正處在突飛猛進的快速發展時期,在世界舞臺上發揮著重要的作用。大學生作為未來國家發展建設的重要力量,肩負著非常重要的任務。武術“內外兼修”的獨特性,不僅自身具備健身、技擊價值,它滲透著傳統文化的基本精神,其中包括以國家利益為重,國家利益超越個人利益,民族積極奮進的精神價值觀,因此,高校要通過武術教育,構建學生積極向上的正確人生觀、價值觀、世界觀,教育他們把國家利益放在首位,為國家和社會發展樹立遠大的理想和抱負,繼承和發揚中華民族精神,并世代傳承。
三、結論
青年一代,事關國家未來興衰,高校人口數量龐大,在復雜多變的國際形勢下,在我國政治、經濟、文化大發展的新時期,武術作為中國優秀傳統文化體育項目,要迎合國家、社會的需要,正確定位高校武術教育應承載的主要功能,面向世界,構建超越體育本身固有的健身功能大教育觀,即注重武術的文化教育;面向世界,普及與推廣武術的使命感;武術文化與世界優秀文化相融合,傳承武術文化,與世界人民共享、共發展;國家利益高于一切,甚至不惜犧牲自己的生命,弘揚民族精神,使高校武術教育能更好的體現出多元的社會化價值。
【參考文獻】
[1] 顏世亮.文化傳承視域下學校武術教育管窺[J].體育科技,2014(1)163-164.
[2] 關博,楊兆山.武術教育的文化性探析[J].體育與科學,2014(3)83-87.
[3] 楊紹勇,孫健.學校武術教育與立德樹人研究[J].搏擊?武術科學,2014(4)27-30.
篇7
1 堅持價值思維和效益導向,要從解放思想入手
思想是行動的先導,電力企業的干部職工通過多年的實踐已經充分認識到,作為企業來說,創造價值、謀求效益是其存在的根本目標之一。必須把思想意識統一到堅持價值思維和效益導向上來,行動自覺融入到各個崗位、每項工作中,心往一處想,勁往一處使,形成一股無堅不摧的合力,才能將各項工作不斷推向前進。
在解放思想、凝聚共識的過程中,干部職工首先要強化思想引領和作風建設??陀^分析形勢,從思想上杜絕浮、夸、虛的作風;堅決擺脫國企職工的優越感,走出等、怨、要的怪圈。主動適應市場需求、分析市場形勢、應對市場變化、掌控市場發展,真正站在市場競爭的高度去思考、解決問題,徹底摒棄不良習氣和依賴心理,切實增強危機意識、責任意識,立足于當前正確審視面臨的困難,將困難當作一種考驗,磨練我們的意志、鍛煉我們的能力,著眼于大局認真思考解決問題的方法,對外積極開拓市場,增強創收能力;對內節約挖潛,控制關鍵成本。全員堅定信心、同心同德,以思想的轉變帶動觀念的更新,以觀念的更新推動行動上作為,進而變風險為機遇,實現壓力與責任的“雙重傳遞”,從而使全員上下同欲、同心,共同應對嚴峻挑戰。
大唐集團公司在深刻領會“價值思維和效益導向”的精神實質和客觀要求的同時,針對電力企業生產經營實際,提出了一系列行之有效的思路、方法和措施。開展的“三效三責”效益責任行動、“實現價值從我做起”手寫征文、“雙提升”大家談等活動,可以從各個方面、各個崗位全方位剖析樹立價值思維效益導向的極端重要性,闡述如何立足本職、多做貢獻,從而營造出“一切為了效益、一切服務效益、一切創造效益”的良好氛圍。
2 堅持價值思維和效益導向,要從務實創新切入
創新是事業發展的催化劑,務實是事業成功的強心針。十報告中提出,要“實施創新驅動發展戰略”。而創新,也必將成為電力企業轉方式、調結構、強管理、增效益的動力之源。但是創新不能只是空中樓閣,更重要的是要有務實的舉措和實實在在的方法。務實創新,光靠勇氣不行,還要有善創實干的能力。能力的提高,也需要不斷學習新知識,關注新形勢,多思考研究深化企業發展中出現的復雜問題,想出新辦法,拿出新舉措,改出新氣象,開出新天地。
一是創新觀念,把價值思維和效益導向的理念貫穿到企業工作的每一個環節當中,通過管理的強化、制度的完善、素質的提升,以市場為導向,轉變觀念、深化改革,采取有效措施,加大工作力度,把經濟效益作為一切工作的檢驗標準和評價依據。二是加強學習,全面加強學習型組織建設,在學習內容的時效性、實用性上下功夫,圍繞“經濟效益這一中心”出實招,將工作的重心轉移到引導、動員廣大干部職工“創效”上來,杜絕搞轟轟烈烈的形式主義,只求實實在在的業績效果,為企業中心工作服務。三是強化作風,加強黨的領導和黨員作風建設,對表現優秀的黨員進行重點宣傳并進行培養,營造濃厚的爭先氛圍,確保黨員在關鍵時期、關鍵時刻、關鍵崗位、關鍵任務中承擔起責任、發揮出作用。四是以人為本,加強對黨員干部和職工群眾的思想、學習、工作和生活各個方面的人文關懷,加強信息的傳遞和掌握,使全員全面掌握適應當前電力市場競爭的新知識、新理念,打造適合企業當前需要的創效人才。五是文化引領,努力調動職工積極性,廣大干部黨員率先垂范,細化責任和任務,出實招、辦實事、求實效,抓住重點工作、重點目標、重點任務不放松,用先進的文化理念引導全員凝心聚力、同心攻堅。
務實創新,需要有“敢向自己開刀”的勇氣,更需要“敢為天下先”的膽識。結合實際在創新上下工夫,在創新中破解發展難題、提升發展水平。根據分管工作和生產經營指標,對各個方面、各個專業、各個層面的事項進行梳理盤點,全力挖掘創效“造血點”,積極完善各項管理制度,激發了基層職工務實創新、奮勇拼搏的積極性。
3 堅持價值思維和效益導向,要從真抓實干開始
堅持“價值思維和效益導向”,不僅是當前一個時期電力企業發展的必然要求,同時也是企業未來發展的科學定位。電力企業職工要把對“中國夢”的期待轉化為一項項具體措施,落實到一件件實事之中,就必須把“價值思維和效益導向”貫穿至生產經營的每一項工作當中,采取有效措施,加大工作力度,千方百計想辦法、創效益,確保工作任務和經營目標的扎實推進。在實際工作中,把經濟效益作為工作的檢驗標準和評價依據,通過管理的強化、制度的完善、素質的提升,使企業由內而外、強基固本、煥發生機。每名電力職工,都應爭做最好的自己,對自己負責,把對企業的深深熱愛轉化為拼搏進取、盡責履職、敬業奉獻的實際行動。實現“中國夢”在于行動,在于實干。唯有真抓,才能直面問題攻堅克難;唯有實干,才能持續實現“中國夢”的堅實腳步。
堅持“價值思維和效益導向”,要強化責任意識和憂患意識。將效益提升作為企業的中心任務和頭等大事,將其提升到企業生存與發展的高度來認識,使其成為應對嚴峻挑戰的根本需求和最大保證。實現壓力的層層傳遞,增強執行力,把全部精力集中到工作上,對各個方面、各個專業、各個層面的事項進行梳理盤點,全力找出、找全有可能增加企業效益的事項,對相關事項制定科學、有效、得力的實施方案,確保各項目標務期必成。
外部形勢無法改變,能夠改變的唯有自我提升。根據市場波動及時調整戰略方針和經營方向,也要做好工作中每一個細節。充分利用財務管理系統的管控功能,強化費用事先審批程序,嚴格按照分解預算進行每一項成本費用的審批,加強成本費用的事先控制。認真分析研究新《安全生產法》、《環保法》,嚴格執行國家法律法規,持續優化環保生產指標,認真落實節能減排行動計劃。通過指標預警管理,日分析、周點評、月總結,進一步加大環保運行方式調整、指標監控力度。萬涓成河,千流入海,只要認真從有利于企業的每一件小事做起,就會有收獲、有成績,就會促進企業的蓬勃發展。
篇8
1.南寧阿里媽媽燒烤(含烤肉腌漬料、燒烤油、海鮮燒烤秘方)
2.河南安陽“孟記炒雞”秘方(含炒雞醬及炒雞粉秘方)
3.飄香雞(含復合飄香粉料配方)、八寶布袋雞
4.河南靈寶“傻妹包子”(含骨頭湯熬制、香料汁煮制、紅薯粉條漲發工藝配方)
5.14種火爆熱賣特色爆米花
6.正宗長沙桔香手撕鴨(含特制桔香鹵水、桔香油配方)
7.溫州鄉骨里香雞香巴佬熟食(含料水、香料、老湯、醬雞湯等核心配方)
8.百度烤肉
9.天津百餃園水餃餡料經典調制秘方
10.重慶德莊清一色火鍋技術(包括底料、鮮湯、味碟、兌鍋配方)
11.農夫烤雞、黃泥巴烤雞
12.價值萬元瘋狂烤翅絕密配方
13.上海香嫩里脊炸串
14.正宗河間張果老驢肉火燒
15.濟南劉氏鍋貼(含肉湯料、海鮮湯、香料油秘方)
16.北京錦州飯店“錦州烤魚”秘制燒烤醬料、腌料、油料、干料配方
17.西安張氏特色烤面筋配方工藝
18.山東臨沂王小二炒雞(含秘制炒雞粉配方)
19.傷心涼粉、開心涼粉、冰粉(含三種味汁調制配方)
20.全國連鎖“永和豆漿”油條
21.正宗西安涼皮(料粉、香料水、油潑辣子秘制配方 )
22.筋頭巴腦牛一鍋火鍋(秘制醬料、底油、鹵肉醬湯配方及操作工藝)
23.正宗東北“高壓嘎巴鍋”(醬料、油料、香料配方及鍋型制作)
24.魔石咕嚕魚(含湯料配方、醬料配方)
25.價值2萬元武漢周黑鴨絕密配方
26.河北邯鄲圣旨骨酥魚(含酥魚滋補料18種配料用量核心配方)
27.金牌烤全兔
28.北京“勝利玉林烤鴨店”精品酥香烤鴨(獨家關鍵秘技、玉林面醬配方)
29.北京豬腳巷風味烤豬蹄(秘制烤蹄鹵水、醬料、蘸料配方)
30.金棗果疏香不膩烤鴨(含疏香汁、脆皮水、鴨醬及二次風吹冷凍等5大技術配方)
31.李廚相思鴨配方工藝
32.山西一絕“驢肉香”醬驢肉(含老湯配方調制)
33.成都耗子洞張鴨子(含香辛藥料配方)
34.安徽無為醬鴨(附秘制醬湯配方)
35.澳門豆撈
36.山東“石蛤蟆”水餃
37.湖南韶山毛家紅燒肉(9大制作關鍵)
38.絕味香辣熏雞架、烤雞架
39.云南沾益龔氏辣子雞
40.武大郎燒餅、潘金蓮咸菜、王婆南瓜粥 41.一品飄香砂鍋米線、砂鍋面、砂鍋粉、砂鍋土豆粉等加盟店全套配方技術(含秘制麻辣料、鮮湯、醬鹵配方)
42.湖南如意樓水晶酸辣粉
43.功夫麻辣燙
44.內蒙古小肥羊連鎖火鍋
45.貴州花溪王記牛肉粉
46.正宗土家醬香餅
47.大連鐵板魷魚(絕密燒烤醬配方 )
48.河南開封小籠灌湯包
49.鄉村大媽鐵鍋燴菜
50.李連貴熏肉大餅(含香料包配方)
51.正宗麥多餡餅
52.長沙龔得包連鎖店灌湯包
53.重慶諸葛烤魚加盟店配方
54.干鍋辣鴨頭
55.啤酒烤鴨(含腌料鹵水、飄香料機密配方)
56.正宗十三香龍蝦(含十三香麻辣醬、秘制麻辣型、濃香型十三香粉絕密配方)
57.忽必烈烤羊排(含專用鹵水及自制孜然香粉配方)
58.正宗公婆餅
全套資料10萬字,所有配方技術真實可靠,確保正宗,毫無保留,詳細易懂簡單好學,并有專業老師免費提供技術指導,僅收編輯成本費488元,前100名訂購388元,款到一律用快遞免費發出!
匯款地址:武漢市洪山區書城路40號洪山經濟開發區 CBI動漫產業孵化基地902室
收款人:《創富指南》雜志讀者服務部(收) 郵編:430071 聯系人:堯老師
篇9
ス丶詞:
序貫最小優化;雙邊加權模糊支持向量機;支持向量機;模糊支持向量機
ブ型擠擲嗪: TP301.6 文獻標志碼:A
Abstract: High computational complexity limits the applications of the BilateralWeighted Fuzzy Support Vector Machine (BWFSVM) model in practical classification problems. In this paper, the Sequential Minimal Optimization (SMO) algorithm,which firstly decomposed the overall Quadratic Program (QP) problem into the smallest possible QP subproblems and then solved these QP subproblems analytically, was proposed to reduce the computational complexity of the BWFSVM model. A set of experiments were conducted on three real world benchmarking datasets and two artificial datasets to test the performance of the SMO algorithm. The results indicate that compared with the traditional interior point algorithm, the SMO algorithm can reduce significantly the computational complexity of the BWFSVM model without influencing the testing accuracy, and makes it possible for the BWFSVM model to be applied to practical classification problems with outliers or noises.
Key words: Sequential Minimal Optimization (SMO); BilateralWeighted Fuzzy Support Vector Machine (BWFSVM); Support Vector Machine (SVM); Fuzzy Support Vector Machine (FSVM)
0 引言
支持向量機(Support Vector Machine,SVM)是模式識別和機器學習領域的一種很重要的分類和非線性函數估計方法,其主要的缺點是標準的支持向量機模型對噪聲和孤立點是敏感的[1]。針對這一問題,Lin等人[2]在2002年提出了模糊支持向量機(Fuzzy Support Vector Machine,FSVM),Jayadeva等人[3]在2005年提出了模糊近邊界支持向量機,Tao等人[4]在2004年提出了一種基于加權間隔的模糊支持向量機。
模糊支持向量機的關鍵是如何設置訓練樣本的模糊隸屬度。針對這個問題,2005年,Lin等人[5]通過引入置信因子和無用因子提出了模糊隸屬度的自動生成方法。2006年,Jiang等人[6]基于高維特征空間樣本與類中心的距離提出了一種新的模糊隸屬度函數。2004年,基于模糊C均值聚類和模糊ifthen規則,Leski[7]提出了Е弄Ъ涓舴竅咝苑擲嗥骼唇餼齟孤立點或噪聲點的分類問題,并提出了迭代設置樣本權重和集成學習的策略。
在以上提出的模型中,模糊隸屬度si是對應樣本點屬于某一類的程度,而1-si是無意義的程度??紤]到在實際的分類問題中,同一個樣本點可能屬于多個類,Wang等人[8]分別提出了雙邊加權模糊支持向量機模型和它的最小二乘版本[9]來評估信貸風險。2008年,Jilani等人[10]將雙邊加權模糊支持向量機應用在多分類問題中。對于一個具有lЦ鲅本點的訓練集,雙邊加權模糊支持向量機模型需要解2lЦ霰淞康畝次規劃問題。在先前的研究中,這個模型運用傳統的優化算法來求解,其計算復雜度為O(8l3)。У毖盜費本上萬時,如果計算機沒有足夠的內存,用傳統的優化算法來求解雙邊加權模糊支持向量機模型是不現實的,這就限制了其在實際中的應用。目前,如何降低計算復雜度是雙邊加權模糊支持向量機模型的關鍵問題之一。在本文中,我們主要處理這個問題。
在支持向量機領域中,分解算法是處理實際分類問題的主要算法之一[11-13]。其中序貫最小優化(Sequential Minimal Optimization,SMO)算法的應用最廣泛[14]。SMO算法將整個二次規劃問題分解成一系列規模為2的二次規劃子問題,然后解這些二次規劃子問題,這使得SMO算法解決大規模分類問題成為可能。目前,SMO算法在大規模的分類問題中已有應用[15-20]。為了降低計算復雜度,本文用SMO算法求解雙邊加權模糊支持向量機(BilateralWeighted Fuzzy Support Vector Machine,BWFSVM)模型,使得該模型在實際分類問題中的應用成為可能。
1 雙邊加權模糊支持向量機模型
對于二分類問題,給定如下的訓練數據集
T={(x1,y1),(x2,y2),…,(xl,yl)}(1)
2005年,Wang等人[8]將訓練集擴展如下:
Tb={(x1,+1,m1),(x1,-1,1-m1),(x2,+1,m2),(x2,-1,1-m2),…,(xl,+1,ml),(xl,-1,1-ml)}(2)
其中輸入數據xn∈Rp,對應的類標yn∈{-1,+1},mn是xn屬于+1類的模糊隸屬度。オ
基于訓練集Tb,雙邊加權模糊支持向量機的原問題[8]如下:
И┆minw,b,ξn,ξn′12w2+C∑ln=1(mnξn+(1-mn)ξn′)(3)
s.t.w•φ(xn)+b≥1-ξn; n=1,2,…,l,И
w•φ(xn)+b≤-1+ξn′; n=1,2,…,l,
Е為n,ξn′≥0; n=1,2,…,l,И
式中:w是超平面的法向量,b是偏項,φ(xn)是將xnв成淶礁呶特征空間的非線性映射,Е為n,ξn′是松弛變量,C是控制模型復雜性和訓練誤差的正則化常數。
原始優化問題的對偶問題為:
И┆minαi,αi′12∑ln=1∑lt=1(αn-αn′)(αt-αt′)k(xn,xt)-
∑ln=1(αn+αn′)(4)
s. t.Аln=1(αn-αn′)=0,И
0≤αn≤Cmn;n=1,2,…,l,И
0≤α′n≤C(1-mn);n=1,2,…,l,И
其中k(xn,x)=(φ(xn),φ(x))是Mercer核函數。
求解上面的優化問題,從而可以得到如下的決策函數。
f(x)=∑ln=1(αn-αn′)k(xn,x)+b(5)
從對偶問題(4)可知,對于lЦ鲅本的訓練集,雙邊加權模糊支持向量機模型需要求解2lЦ霰淞康畝次規劃問題。如果用傳統的優化算法來求解此模型,其計算復雜度O(8l3)限制了其在實際分類問題中的應用。在后邊的研究中,考慮到SMO算法在實際分類問題中的廣泛應用,我們給出求解對偶問題的SMO算法。
2 BWFSVM模型的SMO算法
本章首先給出對偶問題(4)的最優條件,其次給出選擇工作集的策略,然后給出更新拉格朗日乘子的公式,最后給出SMO算法的步驟。
2.1 對偶問題的最優條件
對偶問題(4)的拉格朗日函數如下:
LD(αn,αn′,β,πn,ψn,δn,ηn)=
12∑ln=1∑lt=1(αn-αn′)(αt-αt′)k(xn,xt)-
∑ln=1(αn+αn′)+β∑ln=1(αn-αn′)-∑ln=1πnαn-∑ln=1ψnαn′-
∑ln=1δn(Cmn-αn)-∑ln=1ηn[C(1-mn)-αn′](6)
式中:Е, πn≥0, ψn≥0, δn≥0和ηn≥0是拉格朗日乘子。オ
令
Fn=-∑lt=1(αt-αt′)k(xt,xn);n=1,2,…,l(7)
對偶問題(4)的最優條件如下
ИLD(αn,αn′,β,πn,ψn,δn,ηn)鄲聯n=
-Fn-1+β-πn+δn=0 (8)
ИLD(αn,αn′,β,πn,ψn,δn,ηn)鄲聯n′=
Fn-1-β-ψn+ηn=0 (9)
Е歇nαn=0;n=1,2,…,l(10)
Е轉nαn′=0;n=1,2,…,l(11)
Е莫n(Cmn-αn)=0;n=1,2,…,l(12)
Е仟n[C(1-mn)-αn′]=0;n=1,2,…,l(13)
0≤αn≤Cmn;n=1,2,…,l(14)
0≤αn′≤C(1-mn);n=1,2,…,l(15)
Е歇n≥0,ψn≥0,δn≥0,ηn≥0;n=1,2,…,l(16)
為了方便討論,先給出下面的定理。
定理1
當對偶問題取得最優解時,集合{n|αn=0,│聯n′=0)},{n|αn=0,0
證明
假設集合{n|αn=0,αn′=0)}Х強鍘S墑(8),(9),(12),(13),(16)可得:
-Fn-1+β≥0 (17)
Fn-1-β≥0(18)
由式(17),(18)可得
Fn+1≤Fn-1(19)
這是不可能的。故{n|αn=0,αn′=0)}是空集。
同理可證{n|αn=0,0
接下來,簡要討論mn=0, mn=1和 0
1)mn=0。由式(14)可知,αn=0,對于不同的αn′,в啥耘嘉侍獾淖鈑盤跫可得:
У寶聯n′=0時,Fn-1≥β;
當αn′=C時,Fn-1≤β;
當0
Fn-1≥β,αn′=0【取等?
或Fn-1≤β,αn′=C【取等?
或Fn-1=β,0
2)mn=1。由式(15)可得,αn′=0,Ф雜諶〔煌值的Е聯n,Э梢緣玫階鈑盤跫為:
У寶聯n=0時,Fn+1≤β;
當αn=C時,Fn+1≥β;
當0
Fn+1≤β,αn=0【取等?
或Fn+1≥β,αn=C【取等?
或Fn+1=β,0
3)0
У寶聯n=0,αn′=C(1-mn)時,Fn+1≤β;
當αn=Cmn,αn′=0時,Fn-1≥β;
當αn=Cmn,αn′=C(1-mn)時,-1≤Fn-β≤1;
當αn=Cmn,0
當0
Fn+1≤β,αn=0,αn′=C(1-mn)
或Fn-1≥β,αn=Cmn,αn′=0
或-1≤Fn-β≤1,αn=Cmn,αn′=C(1-mn)
或Fn-1=β,αn=Cmn,0
或Fn+1=β,0
定義下面的指標集
I01={n|αn=0,αn′=0,mn=0}
I02={n|αn=0,0
I03={n|αn=C,αn′=0,mn=1}
I04={n|0
I05={n|αn=0,αn′=C,mn=0}
I06={n|αn=Cmn,αn′=0,0
I07={n|αn=0,αn′=0,mn=1}
I08={n|αn=0,αn′=C(1-mn),0
I1={n|αn=Cmn,αn′=C(1-mn),0
I2={n|αn=Cmn,0
I3={n|0
設
ИFn=Fn+1, n∈I03∪I04∪I1∪I3Fn-1, n∈I01∪I02∪I06∪I2
Fn=Fn+1, n∈I04∪I07∪I08∪I3Fn-1, n∈I02∪I05∪I1∪I2 オ
那么,最優條件可以改寫為
Е隆塥Fn,n∈I01∪I02∪I03∪I04∪I06∪I1∪I2∪I3
β≥Fn,n∈I02∪I04∪I05∪I07∪I08∪I1∪I2∪I3 オ
設
b┆up=min{Fn,n∈I01∪I02∪I03∪I04∪I06∪I1∪I2∪I3}
b┆low=max{Fn,n∈I02∪I04∪I05∪I07∪I08∪I1∪I2∪I3}オ
則最優條件滿足當且僅當
b┆low≤b┆up(20)オオ
2.2 選擇工作集
設滿足下面的兩個條件之一的訓練樣本對為(i,j)オ
i∈I01∪I02∪I03∪I04∪I06∪I1∪I2∪I3,j∈I02∪I04∪I05∪I07∪I08∪I1∪I2∪I3 并且 ИFi
i∈I02∪I04∪I05∪I07∪I08∪I1∪I2∪I3,j∈I01∪I02∪I03∪I04∪I06∪I1∪I2∪I3 并且 ИFi>Fj (22)
那么這樣的訓練樣本對(i,j)Фㄒ辶艘桓雒盾對。
設
i_up=argmin{Fn,n∈I01∪I02∪I03∪I04∪I06∪I1∪
I2∪I3}(23)オ
i_low=argmax{Fn,n∈I02∪I04∪I05∪I07∪I08∪I1∪
I2∪I3}(24)お
并且 b┆low>b┆up(25)
那么訓練樣本對(i_low,i_up)Фㄒ辶艘桓鱟畬蟮拿盾對,為了提高優化過程的速度,我們采取兩個策略來挑選工作集:一個是最大矛盾對策略,也就是說將式(23)和(24)定義的最大矛盾對(i_low,i_up)挑選到工作集內進行優化,另一個策略是全部違反策略,將所有滿足式(21)或(22)的矛盾對都放到工作集里進行優化[21]。
2.3 更新拉格朗日乘子Е聯i,αi′,αj和 αj′オ
由指標集的定義可知,由于i和j屬于不同的集合,這樣就有九種集合的組合方法來確定要優化的變量對,具體組合見表1。
由表1可知,在優化過程中,僅僅需要優化其中的4個變量對(αi,αj),(αi′,αj′),(αi′,αj)和(αi,αj′)。オ
設
(αi-αi′)+(αj-αj′)=(α┆oldi-α┆oldi′)+
(α┆oldj-α┆oldj′)=γ (26)
Е=k(xi,xi)+k(xj,xj)-2k(xi,xj)(27)
Е摘t=∑ln=1(α┆oldn-α┆oldn′)k(xn,xt)+b; t=1,2,…,l(28)
Sw={i, j}(29)
將式(4)的目標函數12∑ln=1∑lt=1(αn-αn′)(αt-αt′)k(xn,xt)-∑ln=1(αn+αn′)д箍可得
12∑ln=1∑lt=1(αn-αn′)(αt-αt′)k(xn,xt)-
∑ln=1(αn+α′n)=12(αi-αi′)2η+
(αi-αi′)[(φi-φj)-η(α┆oldi-α┆oldi′)]-
∑n∈Sw(αn+αn′)+C1(30)
其中C1是常數。
如果待優化的變量對是(αi,αj)和(αi′,αj′),設定s=1,否則s=-1,由式(30)可知,對偶問題(4)等價于下面的優化問題:オ
Иmin12(αi-αi′)2η+(αi-αi′)[(φi-φj)-
η(α┆oldi-α┆oldi′)]-(αi+αi′)(1-s)(31)お
s. t.Е聯i∈[L,H],αi′∈[L′,H′]お
其中:H和L分別是αi的上、下界,H′和L′分別是αi′的上、下界。關于αi和αi′У奈拊際最小優化問題如表2。
オЕ聯i和αi′的最終的計算公式分別如下:オ
Е聯┆newi=
H,α┆unconstrainedi≥H
α┆unconstrainedi,L
L,α┆unconstrainedi≤L (32)
Е聯┆newi′=
H′,α┆unconstrainedi′≥H′
α┆unconstrainedi′,L′
L′,α┆unconstrainedi′≤L′ (33)オ
基于式(26),我們能夠計算Е聯i和αi′ё鈧盞鬧?。?/p>
2.4 確定Е聯i和αi′У納舷陸紿
由等式(14)、(15)、(26)可以得到待優化的變量對與其對應的上下界的關系如表3。
要優化的變量對變量對對應的上下界
(αi,αj)L=max(0,γ+αi′+αj′-Cmj),H=min(γ+αi′+αj′,Cmi)
(αi,αj′)L=max(0,γ+αi′-αj),H=min(γ+αi′-αj+C(1-mj),Cmi)
(αi′,αj)L′=max(0,-γ+αi-αj′),H′=min(-γ+αi-αj′+Cmj,C(1-mi))
(αi′,αj′)L′=max(0,-γ+αi+αj-C(1-mj)),H′=min(-γ+αi+αj,C(1-mi))
2.5 更新Fnオ
在優化過程中,每一步優化之后,Fn需要進行更新,更新FnУ墓式如下:
F┆newn=F┆oldn-∑t∈Sw[α┆newt-α┆oldt-(α┆newt′-α┆oldt′)]k(xt,xn);
n=1,2,…,l(34)
2.6 雙邊加權模糊支持向量機的SMO算法
基于上面的分析,我們給出雙邊加權模糊支持向量機的SMO算法如下:
步驟1
輸入訓練數據集和超參數的值
步驟2
設定拉格朗日乘子Е聯n和αn′的初始值,n=1,2,…,l。オ
步驟3
利用式(23)和(24),計算i_low,i_up。オ
步驟4
檢查i_low和i_up是否違背式(25),如果違背了,就優化對應的拉格朗日乘子αi_low,αi_low′,αi_up和αi_up′,然后返回步驟3;否則繼續。オ
步驟5
遍歷所有的訓練樣本i,Ю用式(21)和(22)檢查是否存在與i匹配的j,如果存在,優化對應的拉格朗日乘子Е聯i,αi′,αj和 αj′,Х禱夭街3。如果所有的訓練樣本都不違背式(21)和(22),就轉到步驟6。
步驟6 輸出支持向量和對應的拉格朗日乘子。
對于雙邊加權模糊支持向量機的對偶優化問題,SMO算法在每一步優化中僅僅挑選兩個拉格朗日乘子去優化,解析地求解這兩個拉格朗日乘子,避開了整體優化數值二次規劃;另外,SMO算法也不需要額外存儲矩陣,這些優良的特征使得雙邊加權模糊支持向量機在帶噪聲和孤立點的分類問題中的應用成為可能。雙邊加權模糊支持向量機模型中涉及到2l個變量,因此其時間復雜度為O((2l)2.2)[14]。И
3 數值實驗和討論
在三個實際數據集和兩個人工數據集上進行實驗來測試SMO算法的性能。為了比較雙邊加權模糊支持向量機模型和標準支持向量機模型的性能,我們也用SMO算法[18]求解標準的支持向量機模型。為了表明SMO算法大大降低了計算復雜性,給出了利用預測―校正算法(Predictorcorrector algorithm,PrCo)[22]即傳統的內點算法來求解雙邊加權的模糊支持向量機模型的結果。
3.1 實驗環境和數據集
實驗中,采用高斯核函數,通過網格剖分方法來尋找近似的最優超參數,剖分的網格為Е=[2-4,2-3,2-2,…,25]和C=[20,21,22,…,29],С絳蛟誦械撓布環境是擁有英特爾雙核處理器、最大內存3.25@GB,CPU為3.16@GHz的PC,軟件環境是Windows XP,編程語言是C++,編譯器是VC++6.0。
Letter和Statlog數據集來自于hpp://archive.ics.uci.edu/ml,并經過了如下的預處理使之變為二類數據集:Letter是一個26類的數據集,將類標為{A,B,…,M}的看成正類,類標為{N,O,…,Z}看成負類;Statlog是一個6類的數據集,將類標為{1,2,5}的看成正類,類標為{3,4,6}看成負類。數據集的其他詳細信息如表4。
3.2 產生模糊隸屬度
數據集Ripley,人工數據集1,人工數據集2的模糊隸屬度利用下面的方法設置。
設在高維特征空間中正類和負類的中心分別為
Е摘+(x)=1l+∑l+i=1φ(xi)
φ-(x)=1l-∑l-i=1φ(xi)お
其中l+和l-Х直鷂正負類的樣本數。
訓練獲得的分類超平面為
w•φ(x)+b=0И
其中w=(φ+(x)-φ-(x)),b=[-(φ+(x)-φ-(x))×(φ+(x)+φ-(x))]/2。オ
如果yi=+1,那么
mi=min(0.5×(1+w•φ(xi)+bw•φ+(x)+b),1.0)お
否則mi=max(0.5×(1-w•φ(xi)+bw•φ-(x)+b),0.0)。オ
如果mi1,那么就刪除訓練集中對應的樣本點。オ
對于Letter和Statlog數據集,用Keller和Hunt提出的策略產生模糊隸屬度[24]。
mi=
0.5×(1+exp(C0(d-(xi)-d+(xi))/d)-exp(-C0)exp(C0)-exp(-C0))
yi=+1
0.5×(1-exp(C0(d+(xi)-d-(xi))/d)-exp(-C0)exp(C0)-exp(-C0))
yi=-1 (35)
其中d+(xi)=φ(xi)-φ+(x),d-(xi)=φ(xi)-│摘-(x),d=φ+(x)-φ-(x)。C0是控制隸屬度函數的參數。在實驗中,通過在網格C0=[-100,-90,…,90,100]中搜索尋找到最優值C0=-100。オ
3.3 實驗結果和分析
為了評估SMO算法的性能,表5列出了SMO算法、PrCo算法和標準的SVM模型的測試精度、訓練時間和對應的最優超參數。
由表5可知,與PrCo算法相比,SMO算法大大降低了雙邊加權支持向量機模型的計算復雜度,例如,對于Statlog和Letter數據集,所提出SMO算法僅僅分別花費46.625@s和634.969@s。然而對于Statlog數據集,PrCo算法用了118B708.203@s,對于Letter數據集,由于沒有足夠的內存從而不能進行訓練。另一方面,如果模糊隸屬度設置得合理,雙邊加權模糊支持向量機模型比標準的SVM模型能獲得更好的性能。例如,對于數據集Ripley、Statlog、人工數據集1和人工數據集2,雙邊加權支持向量機模型的測試精度高于標準的SVM模型;對于Letter數據集,雙邊加權支持向量機模型的測試精度與標準的SVM模型的測試精度一樣。
4 結語
對于雙邊加權模糊支持向量機模型的高計算復雜度問題,本文運用SMO算法來求解。實驗結果表明:與PrCo算法相比,SMO算法大大降低了模型的計算復雜度,使得雙邊加權支持向量機模型在帶噪聲和孤立點的實際分類問題中的應用成為可能。盡管SMO算法只在二分類問題上進行了實驗,但是它也能夠很容易應用到多分類問題中。
在以后的工作中,需要繼續探索設置雙邊加權模糊支持向量機模型的隸屬度的算法,進一步研究SMO算法在實際分類問題中的應用。
げ慰嘉南:
[1] ZHANG X G.Using classcenter vectors to build support vector machines[C]// Proceedings of the 1999 IEEE Signal Processing Society Workshop. New York: IEEE, 1999:3-11.
[2] LIN C F,WANG S D. Fuzzy support vector machines[J]. IEEE Transactions on Neural Networks,2002,13(2):464-471.
[3] JAYADEVA A, KHEMCHANDANI R, CHANDRA S. Fast and robust learning through fuzzy linear proximal support vector machines[J]. Neurocomputing, 2004(61):401-411.
[4] TAO QING.WANG JUE. A new fuzzy support vector machine based on the weighted margin[J]. Neural Processing Letters,2004,20(3):139-150.
[5] LIN C F,WANG S D. Fuzzy support vector machines with automatic membership setting[C]// Studies in Fuzziness and Soft Computing. Berlin:Springer,2005:233-254.
[6] JIANG X F,YI Z, LV J C. Fuzzy SVM with a new fuzzy membership function[J]. Neural Computing and Applications, 2006,15(3/4):268-276.
[7] LESKI J K. An εmargin nonlinear classifier based on fuzzy ifthen rules[J]. IEEE Transactions on Systems, Man, and Cybernetics Part B: Cybernetics,2004,34(1):68-76.
[8] WANG Y Q,WANG S Y, LAI K K. A new fuzzy support vector machine to evaluate credit risk[J]. IEEE Transactions on Fuzzy Systems,2005, 13(6):820-831.
[9] HUANG W, LAI K K,YU L, et al. A least squares bilateralweighted fuzzy SVM method to evaluated credit risk[C]// Proceedings of the 4th International Conference on Natural Computation.Washington, DC:IEEE Computer Society, 2008:13-17.
[10] JILANI T A,BURNEY S M A. Multiclass bilateralweighted fuzzy support vector machine to evaluate financial strength credit rating[C]// International Conference on Computer Science and Information Technology. Washington, DC: IEEE Computer Society, 2008: 342-348.
[11] DONG J X, KRZYZAK A,SUEN C Y. Fast SVM training algorithm with decomposition on very large data sets[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2005,27(4):603-618.
[12] JOACHIMS T. Making largescale SVM learning practical[C]// Advances in Kernel MethodsSupport Vector Learning. Cambridge: MIT Press, 1998:169-184.
[13] OSUNA E, FREUND R, GIROSI F. Training support vector machines: an application to face detection[C]// Proceedings of 1997 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 1997:130-136.
[14] PLATT J C. Sequential minimal optimization: a fast algorithm for training support vector machines[C]// Advances in Kernel Methods. Cambridge: MIT Press, 1998:185-208.
[15] CHEN P H, FAN R E, LIN C J. A study on SMOtype decomposition methods for support vector machines[J]. IEEE Transactions on Neural Networks,2006, 17(4): 893-908.
[16] KEERTHI S S,GILBERT E G. Convergence of a generalized SMO algorithm for SVM classifier design[J]. Machine Learning, 2002, 46(1/3):351-360.
[17] KEERTHI S S,SHEVADE S K. SMO algorithm for leastsquares SVM formulations[J]. Neural Computation, 2003, 15(2): 487-507.
[18] KEERTHI S S, SHEVADE S K, BHATTACHARYYA C,et al. Improvements to Platts SMO algorithm for SVM classifier design[J]. Neural Computation,2001,13(3):637-649.
[19] KNEBEL T, HOCHREITER S, OBERMAYER K. An SMO algorithm for the potential support vector machine[J]. Neural Computation, 2008,20(1):271-287.
[20] LIN C J. Asymptotic convergence of an SMO algorithm without any assumptions[J]. IEEE Transactions on Neural Networks,2002,13(1), 248-250.
[21] SHEVADE S K, KEERTHI S S, BHATTACHARYYA C,et al. Improvements to SMO algorithm for SVM regression[J]. IEEE Transactions on Neural Networks,2000,11(5):1188-1193.
[22] MEHROTRA S. On implementation of a primaldual interior point method[J]. SIAM Journal on Optimization,1992, 2(4):575-601.
篇10
(泰安職業技術學院財經系,山東 泰安271000)
摘要:將粗集-遺傳支持向量機模型運用到供應鏈績效評價中,首先利用粗集理論剔除影響供應鏈績效評價的冗余因素,獲得核心影響因素,再采用支持向量機對于提取得到的核心影響因素預測供應鏈績效所處的級別。在支持向量機分類過程中,利用遺傳算法對支持向量機算法的參數進行尋優,獲得最佳參數模型,而后預測得到供應鏈績效評價級別。最后,實例運用此模型進行了預測,并與只運用粗集-支持向量機進行預測的結果進行對比。結果表明,利用粗集-遺傳支持向量機方法對供應鏈績效評價級別的預測準確率更高,預測結果更符合實際,是一種科學可行的方法。
關鍵詞 :供應鏈;績效評價;粗集理論;支持向量機;遺傳算法
中圖分類號:TP18文獻標識碼:A文章編號:0439-8114(2015)03-0733-05
隨著經濟全球化,企業的經營環境發生了巨大的變化。越來越多的企業管理者已經意識到,未來的企業競爭將是供應鏈(Supply Chain,簡稱SC)與供應鏈之間的競爭,而不是企業之間的競爭。企業為了在市場競爭中始終處于有利地位,獲得長期競爭優勢及利益,就必須建立高效、安全、可靠的供應鏈系統,供應鏈系統可以各種輔助手段實現其一體化過程。
所謂供應鏈是指將產品和服務提供給最終消費者的所有環節的企業所構成的上下游產業一體化的體系。供應鏈管理是從系統的觀點出發,通過對采購、制造、分銷直至消費者的整個過程中的資金流、物流、信息流的協調,通過此種管理模式來滿足消費者的要求及需求。然而只有對供應鏈系統中的各成員供應鏈績效評價理論及其重要性的認識統一,才能讓他們將對整個供應鏈系統的貢獻度作為自己的考核目標,并將這些具體指標達成情況作為利益分配及任務分配的依據,如此才能使供應鏈的整體績效切實得到提高。目前,將粗集-遺傳支持向量機(GA-SVM)方法應用到供應鏈績效評價領域的研究并不多見,本研究主要利用粗糙集理論剔除供應鏈績效評價的冗余因素及指標,提取獲得影響供應鏈績效評價的核心因素,再運用對于小樣本具有良好泛化能力的支持向量機來進行評價,支持向量機的評價過程中通過遺傳算法來進行相關參數尋優操作[1,2]。
1粗集理論
波蘭學者Pawlak于1982年提出了粗糙集(RoughSet)理論,粗糙集理論就是在無需提供問題需要處理數據之外的任何其他先知信息,而是僅根據已知的數據剔除冗余信息,獲得本質信息,分析得到知識的不完整程度,生成決策或分類的相關規則及準則,實現通過分類準則或規則對已知數據進行精簡或約減,對于處理未確知和模糊數據具有良好的效果[3-5]。
1.1信息系統
一個信息系統S通過下式表示:S=(U,A,V,f),其中U為論域,(U={x1,x2,……,xn})由有限個研究對象組成;A=C∪D為屬性集,其中C是條件屬性集,D是決策屬性集;V是值域;f是映射,對a∈A,x∈U,實現關于屬性a的值。
1.2不可區分關系
粗糙集理論將知識和分類緊密聯系起來,知識是對客觀數據進行分類的能力,分類就是將差別的數據對象分析成為一類,它們之間的關系稱之為不可分辨關系或等價關系,其中知識庫可以用K=(U,R)表示,其中U是非空有限集,稱之為論域,R是U上的一族等價關系。UΠR為R的所有等價類族。[X]R表示包含元素x∈U的R的等價類。若yyPR且P≠?椎,則P中全部等價關系的交集也是一種等價關系,稱為P上的不可區分關系,記為ind(p),
1.3屬性約簡與核
定義1:假設S=(U,R)為信息系統,R是U上的等價關系族,x∈R,若U/IND(R)=U/IND(R-r),則稱是R中可以被約簡掉的知識,否則不可被約簡掉。
定義2:對于任意r∈P(PR),若其中的P都是不可被約簡的,則其等價關系族P是獨立的,否則認為P是相關的。
定義3:假定S=(U,R)為信息系統,如果子族PR滿足下列條件:IND(P)=IND(R),而且P是獨立的,則稱P是R的一個約簡。
如果P是R的約簡,則P必須滿足以下條件:①P獨立;②P與R有相同的分類能力,即IND(P)=IND(R)。
定義4:假定S=(U,R)為信息系統,如果其中R不可約去的屬性,則稱做R是核屬性,所有核屬性構成的集合稱為核集,記作Core(R),稱Core(R)為R的核。
1.4粗集的上、下近似及邊界
定義1:給定知識庫K=(U,R),XU,稱y(X)={x|[x]RX,x∈U}為集合X的下近似,也稱(X)是X的R正域,記做POSR(X);顯然,X的R正域POSR(X)是由U中完全屬于X的元素構成的集合。(X)是一個確定性集合,它是由完全包含在X中的那些R的等價類(中的元素)構成的集合。即X的R正域 POSR(X)中的元素可被正確分類。
定義2:稱BNR(X)=(X)-(X)為X的R邊界域,稱NEGR(X)=U-(X)為X的負域。顯見,負域中的元素由不能確定是否屬于X的元素組成。
1.5決策表的簡化
對于決策表的條件屬性進行化簡,也就是對決策表的簡化,簡化的決策表具有與之前的決策表相同的決策等功能,不影響其核心功能的體現,只不過是簡化后的決策表具有更少的條件屬性,這樣會提高決策和評價效率。因此,決策表的簡化在實際應用領域中占有相當分量。換言之,在更少的條件下,獲得同樣的決策,使得利用一些相對之前更為簡單的手段或條件就可以獲得同樣的決策或結果。決策表的簡化步驟如下:(1)對決策表的條件屬性進行約簡,獲得核心因素,也就是消去決策表中的某些列;(2)約簡掉決策表中重復的某些行消去重復的行;(3)約簡掉屬性的冗余值。
本研究主要通過以上3個步驟對決策表進行屬性約簡,以期得到影響供應鏈績效評價的主要因素或指標,約簡掉冗余因素或指標,為下一步的供應鏈支持向量機評價奠定一個良好的基礎。
2遺傳-支持向量機回歸模型
2.1支持向量機基本原理
SVM是基于結構風險最小化原則的方法,由于其是一個凸二次優化問題,從而保證能找到一個全局最優解,而且其能夠較好地解決小樣本、非線性、高維數等實際問題,問題的復雜程度不再簡單地取決于維數高低,并且具有良好的泛化能力[6-8]。對于其凸二次優化問題,可以應用標準的拉格朗日乘子法進行優化求解。
假設訓練樣本為{(x1,y1),……(xi,yi)},其中(xi∈Rm)是第i個學習樣本的輸入值,且為m維列向量,yi∈R為對應的目標值??梢越⑷缦滦问降幕貧w函數:
式(1)中,{}表示內積運算,wi描述了函數fi(t)的復雜度,bi為常數??紤]到函數的復雜度和擬合誤差,函數擬合問題等價于滿足如下約束條件時
最小化代價泛函
式(3)中,C為懲罰因子,?孜i為松弛變量。對于這個尋優問題,可以建立以下函數
式(4)中,(αi)l為Lagrange乘子??疾焓剑?)所給函數極值存在條件,可以獲得求解所有參數的一個方程組,并最終得到回歸函數(1)的表達式為
式(5)中,Ki(t,tl)為滿足Mercer條件的支持向量機核函數。廣泛應用一種核函數為徑向基核函數
式(6)中,i為xi的標準偏差。
當每個訓練數據所對應的回歸函數fi(t)均被確定后,可以得到回歸函數為
支持向量機回歸模型中具有多個參數,易陷入局部最優,因此本研究利用具有全局尋優能力的遺傳算法對其參數進行尋優。
2.2遺傳算法基本原理
遺傳算法和傳統搜索算法不同,它首先隨機產生一組初始解,即“種群(Population)”,種群中的每一個個體,即問題的一個解向量,稱為“染色體(Chromosome)”,開始搜索過程。這些染色體在后續迭代中不斷進化,生成的下一代染色體稱為“后代(Offspring)”。每一代中染色體的好壞可通過染色體的適應值(Fitness)來評價:適應值大的染色體被選擇的幾率高,相反,適應值小的染色體被選擇的可能性小,被選擇的染色體通過交叉(Crossover)和變異(Mutation)產生新的染色體,即后代;經過若干代之后,算法收斂于最好的染色體,該染色體很可能就是問題的最優解或近似最優解。遺傳算法的運行步驟如下[9-15]:(1)隨機產生初始種群popk;(2)以適應度函數對染色體進行評價;(3)按適應值高低選擇染色體形成新種群newpopk;(4)通過交叉、變異操作產生新的染色體即后代offspring;(5)不斷重復步驟(2)-(4),直到獲得預定進化代數。
其迭代流程見圖1所示。由上述步驟可看出,遺傳算法主要由遺傳運算(交叉和變異)和進化運算(選擇)組成。
交叉運算是最主要的遺傳運算,遺傳算法的性能在很大程度上取決于所采用的交叉運算的性能。交叉運算同時對兩個染色體操作,組合兩者的特性產生新的后代。變異則是一種基本運算,它在染色體上自發產生隨機變化。變異可以提供初始種群中不含有的基因,或找回選擇過程中丟失的基因,為種群提供新的內容。
3實證分析
設計任何評價指標體系都應遵循一些基本原則,因此,本研究結合供應鏈績效評價的概念,根據目的性原則、科學性原則、系統性原則、經濟性原則、定量與定性相結合的原則和通用性與發展性相結合原則這六個原則初步確定一個比較廣泛的供應鏈績效評價指標體系(表1)。同時,對評價指標代號及指標類型進行了標定。其中,極大型指標是指標值越大越好的指標,又稱正向指標;極小型指標是指標值越小越好的指標,又稱逆向指標。本研究應用這一指標體系對河北、山東、天津等地區的14條供應鏈進行調研,調查的實際數據請相關專家進行評分,其評分結果將作為支持向量機評價結果進行訓練和檢驗,同時也作為和只運用支持向量機所得出的訓練結果進行比較(表2)[1,2]。
3.1粗集屬性約簡
把實測數據輸入,把這些指標作為條件屬性。對于供應鏈績效評價結果根據所處情況分為五類(很好,較好、一般、不好、很不好),作為決策屬性記為D{1,2,3,4,5},
對決策表進行屬性約簡,根據粗集理論可以求出哪些是核心屬性,哪些是冗余屬性,由于屬性約簡算法比較復雜,采用VB6.0編程進行屬性約簡。屬性約簡后的指標體系見表2。此指標體系由于約簡了冗余屬性,提取了核心屬性,為下一步利用支持向量機進行回歸識別提供了比較好的基礎。
把通過實際調研的數據輸入約簡后的決策表(表3)。
3.2遺傳-支持向量機回歸模型的學習
支持向量機學習算法如下:
1)獲取學習樣本(xi,yi),i=1,2,……l,其中xi∈Rm,yi∈{1,-1}l對樣本進行預處理。
2)選擇進行非線性變換的核函數及對錯分(誤差)進行懲罰的懲罰因子C。
3)形成二次優化問題用優化方法。對于此優化問題中參數尋優,通過遺傳算法獲得,具體步驟如下:①確定遺傳算法編碼方式。采用十進制整數編碼的遺傳算法的群體中模式的數目,低階并且適應度值在群體平均適應度值以上的模式在遺傳算法迭代過程中將按指數增長率被采樣。②生成初始種群。初始染色體的多少對遺傳算法的搜索有影響,對支持向量機算法具有顯著影響,為了優化模型往往需要對染色體參數進行適當優化。根據采集數據情況,確定初始種群染色體數目。③計算每個染色體的適應度值f(xi),xi為種群中第i個染色體;④累加所有染色體的適應度值sum=∑f(xi),同時記錄對于每一個染色體的中間累加值S-mid,其中S為總數目;⑤產生一個隨機數N,0<N<sum;⑥選擇其對應的中間累加值S-mid≥N的第一個染色體進入交換集;⑦重復步驟⑤、⑥操作,直到交換集中包含足夠多的染色體為止;⑧對于步驟⑦產生的染色體中任意選擇兩個染色體,染色體進行單點雜交和兩點雜交獲得一個或多個基因,得到新的兩個染色體,來產生新的優良品種;⑨變異運算利用各種偶然因素引起的基因突變,以給定的概率隨機地改變遺傳基因的值。⑩通過步驟①到步驟⑨獲得支持向量機算法的懲罰系數、松弛變量等參數,遺傳算法尋優結束。
4)獲得αi以及b的值,代入方程中,獲得函數擬合的支持向量機。
5)將需預測或分類的數據代入支持向量機方程中獲得結果。
本研究中所選評價指標作為供應鏈評價因素集,供應鏈績效評價等級分為5級,目標輸出對應以下5類:1、2、3、4、5。
利用表2中的前10數據作為訓練樣本,對于數據采用以下公式進行歸一化處理,以減少各個因子不同量級對于回歸效果的影響,并利用Matlab軟件得出回歸結果(圖2)。
由圖2可以看出擬合效果非常好,從而可以對剩下的4個進行識別,并與采用BP神經網絡對10到14的樣本進行評判的結果進行對比(表4)。
通過表4可見,基于粗集的支持向量機識別等級與支持向量機識別的等級除了編號12之外都一樣,通過對編號12的數據進行進一步分析可以得出此供應鏈績效等級更趨近于一般等級。
4結論
本研究首先利用粗集理論提取出影響供應鏈績效評價的核心因素,再使用支持向量機的方法進行模式識別,模式識別過程中,利用遺傳算法對相關參數進行尋優操作,取得了良好的效果。由于支持向量機是基于小樣本的分類及預測的模型。所以,在本研究實例所給樣本極少的情況下做出了較好的預測。由于支持向量機方法是建立在有限樣本下進行機器學習的通用方法,因此它在供應鏈績效評價和分析中有廣泛的應用前景。
參考文獻:
[1] 王德財.基于支持向量機的供應鏈績效評價方法研究[D].長沙:長沙理工大學,2006.
[2] 蔡煒凌.企業供應鏈項目的綜合評價方法研究[D].河北保定:華北電力大學,2007.
[3] 曹慶奎,任向陽,劉琛,等.基于粗集-未確知測度模型的企業技術創新能力評價研究[J].系統工程理論與實踐,2006,9(4):67-72.
[4] 張文修,吳偉志.粗糙集理論與方法[M].北京:科學出版社,2003.
[5] 柯孔林,馮宗憲.基于粗糙集與遺傳算法集成的企業短期貸款違約判別[J].系統工程理論與實踐,2008,9(4):27-34.
[6] BANERJEE M, CHAKRABORTY M K.A category for rough sets[J].Foundations of Computing and Decision Sciences,1993,18(3-4):167-180.
[7] 李順國,盧新元.基于粗糙集和SVM的工程項目投標風險研究[J].計算機工程與應用,2008,44(17):224-227.
[8] 蘇懷智,溫志萍,吳中如.基于SVM理論的大壩安全預警模型研究[J]. 應用基礎與工程科學學報,2009,17(1):40-47.
[9] 趙洪波,馮夏庭.非線性位移時間序列預測的進化——支持向量機方法及應用[J].巖土工程學報,2003,25(4):468-471.
[10] PETLEY D N, MANTOVANI F, BULMER M H, et al. The use of surface monitoring data for the interpretation of landslide movement patterns[J]. Geomorphology, 2005,66(1-4):133-147.
[11] VALLEJO L E, SHETTIMA M. Creep crack propagation and the progressive failure of slopes[A]. In: Deformation and progressive failure in geomechanics[C]. London: Pergmon Press, 1997.
[12] BETTEN J. Creep mechanics[M]. 2nd ed. Berlin: Springer, 2005.
[13] MANDIC D P, GOLZ M, KUH A, et al. Signal processing techniques for knowledge extraction and information fusion[M]. Berlin:Springer,2007.