[python爬虫] Selenium定向爬取海量精美图片及搜索引擎杂谈

时间:2022-09-22 10:55:27

我自认为这是自己写过博客中一篇比较优秀的文章,同时也是在深夜凌晨2点满怀着激情和愉悦之心完成的。首先通过这篇文章,你能学到以下几点:
        1.可以了解Python简单爬取图片的一些思路和方法
        2.学习Selenium自动、测试分析动态网页和正则表达式的区别和共同点
        3.了解作者最近学习得比较多的搜索引擎和知识图谱的整体框架
        4.同时作者最近找工作,里面的一些杂谈和建议也许对即将成为应届生的你有所帮助
        5.当然,最重要的是你也可以尝试使用这个爬虫去爬取自己比较喜欢的图片
        总之,希望文章对你有所帮助。如果作者又不足之处或错误的地方,还请海涵~

一. Python定向爬取海量图片

运行效果如下图所示:
        这是从游讯图库中爬取图片(非常不错的网站,推荐大家去浏览),其它网站方法类似去修改。运行py文件后,输入“*飞车”可以爬取主题相关的图集。

[python爬虫] Selenium定向爬取海量精美图片及搜索引擎杂谈

程序源代码如下图所示:

 # -*- coding: utf-8 -*-
"""
Crawling pictures by selenium and urllib
url: http://pic.yxdown.com/list/0_0_1.html
Created on 2015-10-02 @author: Eastmount CSDN
""" import time
import re
import os
import sys
import urllib
import shutil
import datetime
from selenium import webdriver
from selenium.webdriver.common.keys import Keys
import selenium.webdriver.support.ui as ui
from selenium.webdriver.common.action_chains import ActionChains #Open PhantomJS
driver = webdriver.PhantomJS(executable_path="G:\phantomjs-1.9.1-windows\phantomjs.exe")
#driver = webdriver.Firefox()
wait = ui.WebDriverWait(driver,10) #Download one Picture
def loadPicture(pic_url, pic_path):
pic_name = os.path.basename(pic_url) #delete path, get the filename
urllib.urlretrieve(pic_url, pic_path + pic_name) #Visit the picture page and get <script>(.*?)</script> original
def getScript(elem_url,path):
print elem_url
print path
'''
#Error: Message: Error Message => 'Element does not exist in cache'
driver.get(elem_url)
pic_url = driver.find_element_by_xpath("//div[@id='wrap']/div/div[2]/a")
print pic_url.text
'''
#By urllib to download the original pics
count = 1
html_content = urllib.urlopen(elem_url).read()
html_script = r'<script>(.*?)</script>'
m_script = re.findall(html_script,html_content,re.S|re.M)
for script in m_script:
res_original = r'"original":"(.*?)"' #原图
m_original = re.findall(res_original,script)
for pic_url in m_original:
loadPicture(pic_url, path)
count = count + 1
else:
print 'Download ' + str(count) + ' Pictures' #Get the Title of the URL
def getTitle(key, url):
try:
#print key,type(key)
count = 0
print 'Function getTitle(key,url)'
driver.get(url)
wait.until(lambda driver: driver.find_element_by_xpath("//div[@class='masonry']/div/div[2]/a"))
elem_title = driver.find_elements_by_xpath("//div[@class='masonry']/div/div[2]/a")
for title in elem_title:
#title.text-unicode key-str=>unicode
#print key,title.text
elem_url = title.get_attribute("href")
if key in title.text:
#print key,title.text
path="E:\\Picture_DM\\"+title.text+"\\"
if os.path.isfile(path): #Delete file
os.remove(path)
elif os.path.isdir(path): #Delete dir
shutil.rmtree(path,True)
os.makedirs(path) #create the file directory
count = count + 1
#print elem_url
getScript(elem_url,path) #visit pages except Exception,e:
print 'Error:',e
finally:
print 'Find ' + str(count) + ' pages with key\n' #Enter Function
def main():
#Create Folder
basePathDirectory = "E:\\Picture_DM"
if not os.path.exists(basePathDirectory):
os.makedirs(basePathDirectory) #Input the Key for search str=>unicode=>utf-8
key = raw_input("Please input a key: ").decode(sys.stdin.encoding)
print 'The key is : ' + key #Set URL List Sum:1-73 Pages
print 'Ready to start the Download!!!\n\n'
starttime = datetime.datetime.now()
num=1
while num<=73:
url = 'http://pic.yxdown.com/list/0_0_'+str(num)+'.html'
print '第'+str(num)+'页','url:'+url
#Determine whether the title contains key
getTitle(key,url)
time.sleep(2)
num = num + 1
else:
print 'Download Over!!!' #get the runtime
endtime = datetime.datetime.now()
print 'The Running time : ',(endtime - starttime).seconds main()

该程序的基本框架如下图所示:三个图标Python+Phantomjs+Selenium

[python爬虫] Selenium定向爬取海量精美图片及搜索引擎杂谈

参考:[python学习] 简单爬取图片网站图库中图片 其基本步骤为:
        第一步:循环遍历图集列表URL
        main()函数中循环输入列表url,并调用getTitle(key,url)判断主题(title)中是否包含输入的关键词(key),如"*飞车"。
        这里因为游讯图库存在第一个BUG,图集共73页,url采用顺序形式存储,每页存在很多主题(title);当然很多网站都是这样的,如CSDN博客、CSDN下载、搜狐博客等。
        http://pic.yxdown.com/list/0_0_1.html
        http://pic.yxdown.com/list/0_0_73.html
        第二步:通过Selenium和Phantomjs寻找路径爬取主题和URL
        如下图所示,在函数getTitle()中通过selenium访问*面的浏览器Phantomjs,再遍历HTML的DOM树结构。

[python爬虫] Selenium定向爬取海量精美图片及搜索引擎杂谈

其中核心代码如下:
        driver.find_elements_by_xpath("//div[@class='masonry']/div/div[2]/a")
        它是Selenium按照路径定位元素,其中DOM树表示寻找class='masonry'的div,然后是子div,第二个div,最后是<a target='_blank',此处可以爬取主题title.text和属性title.get_attribute("href")。对应源码:

        <div class='masonry'>
<div class='conbox'>
<div></div><div class='cbmiddle'> //div[2]
<a target="_blank"href="/html/6299.html" class="proimg"> //URL
<img src="http://yxdown.com/xxx.jpg" alt="...韩国女主播...">
<p><span>1440人看过</span> <em>8张</em></p>
<b class="imgname">...韩国女主播....</b> //主题
</a>
</div>
</div>
<div class='conbox'>第二个主题</div>
<div class='conbox'>第二个主题</div>
....
</div>

同时获取的href属性 自动补齐,如:http://pic.yxdown.com/html/6299.html
        此处的driver.find_elements_by_xpath方法就比传统的正则表达式好,同时它返回一个List。后面第三部分会详细介绍下Selenium常用的方法。在raw_input输入关键字比较过程中如果存在中文乱码问题,参考这篇文章
        第三步:根据主题创建文件夹并去到具体页面爬取图片
        通过比较关键词key是否包含在主题title,如"主播"。如果在则创建该文件夹,同时移除同名文件:

        if os.path.isfile(path):   #Delete file
os.remove(path)
elif os.path.isdir(path):#Delete dir
shutil.rmtree(path,True)
os.makedirs(path) #create the file directory

再调用getScript(elem_url,path)函数去爬取所在页面的图集

第四步:通过正则表达式获取图片url
        此时去到具体的图集如:http://pic.yxdown.com/html/5533.html#p=1
        你有两种方法获取图片,第一种方法是通过Selenium模拟鼠标操作,点击"查看原图"再另存为图片或者获取源码<img src="http://xxx.jpg">属性,再或者是获取"查看原图"的当前url,driver.current_url。
        <a href="javascript:;" onclick="return false;" id="Original">查看原图</a>
        第二种方法是由于游讯图库的第二个bug,它把所有图片都保存在<script></script>,则通过urllib2获取原图original即可。
        res_original = r'"original":"(.*?)"' #原图
        m_original = re.findall(res_original,script)

第五步:最后调用函数loadPicture(pic_url, pic_path)下载图片即可

def loadPicture(pic_url, pic_path):
pic_name = os.path.basename(pic_url)
urllib.urlretrieve(pic_url, pic_path + pic_name)

总结:
        讲到此处,整个爬虫基本讲述完毕。使用Selenium的优点主要是:DOM树结构爬取,可能Spider也是采用find_element_by_xpath()方法,都是类似的;第二个优点是获取动态JS、AJax的资源或文件。但是正则表达式也有它的好处和方便。
        前面我为什么画了一副框架图,主要是最近研究搜索引擎和知识图谱比较多,所以这幅图给人更直观的感觉。第二部分会详细说到。
        同时,你可能会遇到如下错误,可能和加载响应有关:

[python爬虫] Selenium定向爬取海量精美图片及搜索引擎杂谈

二. 搜索引擎和知识图谱杂谈

1.搜索引擎
        下面是《这就是搜索引擎·张俊林》里面那张经典的框架图。

[python爬虫] Selenium定向爬取海量精美图片及搜索引擎杂谈

搜索引擎的通常是用户输入查询词,搜索引擎返回搜索结果。主要包括流程是:
        搜索引擎后台计算系统
        搜索引擎的信息来源于互联网网页,通过网络爬虫将整个互联网的信息获取到本地,因此互联网页面中有很大部分内容是相同或相似的,“网页去重”模块会对此作出检测并去除重复内容。
        之后,搜索引擎会对网页进行解析,抽取出网页主体内容及页面中包含的指向其他页面的链接。为加快响应用户查询的速度,网页内容通过“倒排索引”这种高效查询数据结构保存,网页之间的链接关系也会保存。因为通过“链接分析”可以判断页面的相对重要性,对于为用户提供准确的搜索结果帮助很大。
        同时由于海量数据信息巨大,所以采用云存储与云计算平台作为搜索引擎及相关应用的基础支撑。上述是关于搜索引擎如何获取及存储海量的网页相关信息,不需要进行实时计算,所以被看做是搜索引擎的后台计算系统。

搜索引擎前台计算系统
        搜索引擎的最重要目的是为用户提供准确全面的搜索结果,如何响应用户查询并实时地提供准确结果构成了搜索引擎前台计算系统。
        当搜索引擎接到用户的查询词后,首先对查询词进行分析,希望能够结合查询词和用户信息来正确推导用户的真正搜索意图。先在缓存中查找,缓存系统中存储了不同的查询意图对应的搜索结果,如果能在缓存中找到满足用户需求的信息,则直接返回给用户,即节省资源又加快响应速度。如果缓存中不存在,则调用“网页排序”模块功能。
        “网页排序”会根据用户的查询实时计算哪些网页是满足用户信息需求的,并排序输出作为搜索结果。而网页排序中最重要的两个因素是:内容相似性因素(哪些网页和用户查询相关)和网页的重要性因素(哪些网页质量好或相对重要,通过链接分析结果获得)。然后网页进行排序,作为用户查询的搜索结果。
        同时,搜索引擎的“反作弊”模块主要自动发现那些通过各种手段将网页的搜索排名提高到与其网页质量不相称的位置,这会严重影响搜索体验。现在也出现一种成功的新互联网公司屏蔽搜索引擎公司爬虫的现象,比如Facebook对Google的屏蔽,国内淘宝对百度的屏蔽,主要是商业公司之间的竞争策略,也可看做是垂直搜索和通用搜索的竞争。

2.知识图谱
        这是搜狗知立方知识图谱的框架图。详见:文章

[python爬虫] Selenium定向爬取海量精美图片及搜索引擎杂谈

知识图谱(Knowledge Graph)于2012年5月首先由Google提出,其目标在于描述真实世界中存在的各种实体和概念,及实体、概念之间的关联关系,从而改善搜索结果。紧随其后,国内搜狗提出了“知立方”、微软的Probase和百度的“知心”。其实质就是真正让计算机去"理解"用户的需求和搜索意图。
        知立方数据库构建包括本体构建(各类型实体挖掘、属性名称挖掘、编辑系统)、实例构建(纯文本属性、实体抽取、半结构化数据抽取)、异构数据整合(实体对齐、属性值决策、关系建立)、实体重要度计算、推理完善数据。

3.爬虫框架猜想
        说了这么多,你是不是还不知道我想表达什么内容啊?

[python爬虫] Selenium定向爬取海量精美图片及搜索引擎杂谈

我在设想如果上面那个Python图片爬虫添加以下几点:
        (1)图片来源不是定向的某个网站,而是开放的网络、图库、数据库
        (2)搜索中加入一些更复杂的搜索,利用一些NLP分词技术处理
        (3)通过一些相似计算,采用更高效的VSM、聚类、神经网络、人脸识别等,计算关键词和图片或标题的相似度,甚至实现百度图片那种识别某张图是某某明星
        (4)再建立倒排索引、链接分析加快检索系统
        (5)海量图片利用云计算、云存储的支持,采用分布式并行更高效的操作
        (6)实现图片智能识别、图片相关推荐,再根据不同用户的log分析用户的真正搜索意图
        通过以上几点是不是能实现一个智能的图片知识计算引擎呢?谷歌、百度图片那些智能应用是不是也是这样的呢?感觉非常有意思啊!
        PS:以后有机会自己研究研究,并且自己再写一些更强大的智能爬取吧!

三. Selenium简单基础学习

前面我在Python爬虫这个专题中讲述了很多关于Selenium的文章,包括爬取百度百科InfoBox、配置安装过程等。下面是简单的Selenium定位元素的介绍:
        1.定位元素方法
        官网地址:http://selenium-python.readthedocs.org/locating-elements.html
        这里有各种策略用于定位网页中的元素(locate elements),你可以选择最适合的方案,Selenium提供了一下方法来定义一个页面中的元素:

  • find_element_by_id
  • find_element_by_name
  • find_element_by_xpath
  • find_element_by_link_text
  • find_element_by_partial_link_text
  • find_element_by_tag_name
  • find_element_by_class_name
  • find_element_by_css_selector

下面是查找多个元素(这些方法将返回一个列表):

  • find_elements_by_name
  • find_elements_by_xpath
  • find_elements_by_link_text
  • find_elements_by_partial_link_text
  • find_elements_by_tag_name
  • find_elements_by_class_name
  • find_elements_by_css_selector

除了上面给出的公共方法,这里也有两个在页面对象定位器有用的私有方法。这两个私有方法是find_element和find_elements。
        常用方法是通过xpath相对路径进行定位,同时CSS也是比较好的方法。举例:

  1. <html>
  2. <body>
  3. <form id="loginForm">
  4. <input name="username" type="text" />
  5. <input name="password" type="password" />
  6. <input name="continue" type="submit" value="Login" />
  7. <input name="continue" type="button" value="Clear" />
  8. </form>
  9. </body>
  10. <html>

定位username元素的方法如下:

  1. username = driver.find_element_by_xpath("//form[input/@name='username']")
  2. username = driver.find_element_by_xpath("//form[@id='loginForm']/input[1]")
  3. username = driver.find_element_by_xpath("//input[@name='username']")

[1] 第一个form元素通过一个input子元素,name属性和值为username实现
        [2] 通过id=loginForm值的form元素找到第一个input子元素
        [3] 属性名为name且值为username的第一个input元素

2.driver接口获取值
        通过WebElement接口可以获取常用的值,这些值同样非常重要。

  • size 获取元素的尺寸
  • text 获取元素的文本
  • get_attribute(name) 获取属性值
  • location 获取元素坐标,先找到要获取的元素,再调用该方法
  • page_source 返回页面源码
  • driver.title 返回页面标题
  • current_url 获取当前页面的URL
  • is_displayed() 设置该元素是否可见
  • is_enabled() 判断元素是否被使用
  • is_selected() 判断元素是否被选中
  • tag_name 返回元素的tagName

详见:http://www.cnblogs.com/eastmount/p/4810690.html
        安装过程:http://blog.csdn.net/eastmount/article/details/47785123

四. 找工作杂谈:你只是看起来很努力

        最近找工作之余看了《你只是看起来很努力》,非常喜欢里面的故事,而这些故事仿佛就是自己的折射,倒映着我们的身影,在此分享与君卿共勉,希望能引起你的共鸣。
[python爬虫] Selenium定向爬取海量精美图片及搜索引擎杂谈
        我们看起来每天熬夜,却只是拿着手机点了无数个赞;
        看起来在图书馆坐了一天,却真的只是坐了一天;
        看起来买了很多书,只不过晒了个朋友圈;
        看起来每天很晚地离开办公室,上班的时间却在偷懒;
        那些所谓的努力时光,是真的头脑风暴了,还是,只是看起来很努力而已?
        任何没有计划的学习,都只是作秀而已;
        任何没有走心的努力,都只是看起来很努力。
        牢记一句话:“所有的努力都不是给别人看的,很多时候,英雄都是孤独的”。

书中第一个故事就是一个女孩垂头丧气的对老师说:“老师,我考了四次四级,还没过,究竟是为什么?”看着学生满满的笔记,老师心想,看起来很努力啊,没理由不通过啊!哎,这不就是活生生的自己吗?自己四级六次才通过,六级还由于分数太低被禁考。究其原因…
        我们总会陷入这样一个怪圈:看似忙碌,实则焦虑。当我们心血来潮想学习时,买了很多书,却再也没有翻开过;当我们备受刺激想健身时,于是找了很多攻略,但再也没有动过;当我们在社交网络上花费很多时间把认为有用的东西另存为时,直到你的硬盘存得满满当当,然而你却没有看过。我们忙碌,却没有去了解那些精挑细选留下的内容;我们花时间收集,却忘了最重要的其实是花时间去消化。你将会在一遍遍地逃避和自我安慰中变得惴惴不安,拖延和等待也终将击垮你的斗志。这就是我支教时分享过的一句话:“记笔记如果光记不看还不如不记”。
        不要看到别人做什么好,就去尝试做什么,那些看起来的光鲜也有属于他们自己的苦逼。当然,打败焦虑的最好办法就是去做那些让你焦虑的事情。希望你看完这几句话之后,也会有所感悟,真切地做起身边的每一件事。路还是要一步步地走,可以走得很慢,但却不能停止。

最近找工作也不是很顺利,这也验证了一点:
        努力的人很多,这个世界最不差的就是优秀的人,尤其是程序员,除非你无可替代。优秀是不够的,一定要卓越,多学点拿得出手的东西,否则你只会得到一句“虽然你很优秀,但你运气不好,这位置已经有人了”。
        如果你的简历上都是些会Java语言、MySQL、HTML、Python等,这并没有什么亮点。还不如:对Java虚拟内核有过研究、熟悉PHP什么开发框架、MongoDB做过应用、Ajax\JavaScript异步消息传输、熟悉Socket\TCP通讯、研究过SVM\神经网络算法等。
         同时能内推的,尽量找师兄师姐帮忙内推,笔试题目各式各样,各种基础而且较深的知识,包括OS、计算机网络、数据库、Linux、JavaScript、C++面向对象、算法等,所以推荐内推直接考察你的项目能力。如果实在没有机会内推,就需要尽早的准备基础知识,否则你会吃亏。一般8月、9月、10月高峰期,所以暑假6-7月就要开始准备了。同时推荐两个地方:一个是LeetCode刷题,这个是真心的有用啊!还有一个就是牛客网刷基础的选择题。

再强调一遍:这个世界优秀的人太多,你需要的是卓越!
        其实不论多忙,我都会坚持写博客,我认为这个过程并不是学习了,而是休息放松的过程,而且能够让我体会到分享的乐趣,非常开心~困得不行了
        总之,希望文章对你有所帮助,如果不喜欢我的这种杂乱的叙述方式,请不要喷我,毕竟花费了自己的一夜经历完成,尊重作者的劳动果实吧!欢迎随便转载~

(By:Eastmount 2015-10-2 早上9点 http://blog.csdn.net/eastmount/

[python爬虫] Selenium定向爬取海量精美图片及搜索引擎杂谈的更多相关文章

  1. &lbrack;python爬虫&rsqb; Selenium定向爬取PubMed生物医学摘要信息

    本文主要是自己的在线代码笔记.在生物医学本体Ontology构建过程中,我使用Selenium定向爬取生物医学PubMed数据库的内容.        PubMed是一个免费的搜寻引擎,提供生物医学方 ...

  2. &lbrack;python爬虫&rsqb; Selenium定向爬取虎扑篮球海量精美图片

    前言: 作为一名从小就看篮球的球迷,会经常逛虎扑篮球及湿乎乎等论坛,在论坛里面会存在很多精美图片,包括NBA球队.CBA明星.花边新闻.球鞋美女等等,如果一张张右键另存为的话真是手都点疼了.作为程序员 ...

  3. python 爬虫入门----案例爬取上海租房图片

    前言 对于一个net开发这爬虫真真的以前没有写过.这段时间学习python爬虫,今天周末无聊写了一段代码爬取上海租房图片,其实很简短就是利用爬虫的第三方库Requests与BeautifulSoup. ...

  4. 【转载】教你分分钟学会用python爬虫框架Scrapy爬取心目中的女神

    原文:教你分分钟学会用python爬虫框架Scrapy爬取心目中的女神 本博文将带领你从入门到精通爬虫框架Scrapy,最终具备爬取任何网页的数据的能力.本文以校花网为例进行爬取,校花网:http:/ ...

  5. Python爬虫实例:爬取B站《工作细胞》短评——异步加载信息的爬取

    很多网页的信息都是通过异步加载的,本文就举例讨论下此类网页的抓取. <工作细胞>最近比较火,bilibili 上目前的短评已经有17000多条. 先看分析下页面 右边 li 标签中的就是短 ...

  6. Python爬虫实例:爬取猫眼电影——破解字体反爬

    字体反爬 字体反爬也就是自定义字体反爬,通过调用自定义的字体文件来渲染网页中的文字,而网页中的文字不再是文字,而是相应的字体编码,通过复制或者简单的采集是无法采集到编码后的文字内容的. 现在貌似不少网 ...

  7. Python爬虫实例:爬取豆瓣Top250

    入门第一个爬虫一般都是爬这个,实在是太简单.用了 requests 和 bs4 库. 1.检查网页元素,提取所需要的信息并保存.这个用 bs4 就可以,前面的文章中已经有详细的用法阐述. 2.找到下一 ...

  8. python爬虫-基础入门-爬取整个网站《3》

    python爬虫-基础入门-爬取整个网站<3> 描述: 前两章粗略的讲述了python2.python3爬取整个网站,这章节简单的记录一下python2.python3的区别 python ...

  9. python爬虫-基础入门-爬取整个网站《2》

    python爬虫-基础入门-爬取整个网站<2> 描述: 开场白已在<python爬虫-基础入门-爬取整个网站<1>>中描述过了,这里不在描述,只附上 python3 ...

随机推荐

  1. hadoop-1&period;2&period;0源码编译

    以下为在CentOS-6.4下hadoop-1.2.0源码编译步骤. 1. 安装并且配置ant 下载ant,将ant目录下的bin文件夹加入到PATH变量中. 2. 安装git,安装autoconf, ...

  2. ssh登录很慢解决方法

    使用ssh客户端(如:putty)连接Linux服务器,可能会等待10-30秒才有提示输入密码.严重影响工作效率.登录很慢,登录上去后速度正常,这种情况主要有两种可能的原因: 1. DNS反向解析问题 ...

  3. fafu 1568 Matrix(二分匹配&plus;二分)

    Description:   You are given a matrix which <= n <= m <= ). You are supposed to choose n el ...

  4. Nyoj 虚拟的城市之旅&lpar;bfs&rpar;

    描述   展馆是未来城市的缩影,个人体验和互动是不变的主题.在A国展馆通过多维模式和高科技手段,引领参观者在展示空间踏上一段虚拟的城市之旅. 梦幻国有N个城市和M条道路,每条道路连接某两个城市.任意两 ...

  5. 【01背包】洛谷P1282多米诺骨牌

    题目描述 多米诺骨牌有上下2个方块组成,每个方块中有1~6个点.现有排成行的 上方块中点数之和记为S1,下方块中点数之和记为S2,它们的差为|S1-S2|.例如在图8-1中,S1=6+1+1+1=9, ...

  6. MySQL存储过程中的事务执行失败之后获取错误信息

    1.表结构: 2. 存储过程中: 代码如下: BEGINDECLARE CONTINUE HANDLER FOR SQLEXCEPTIONBEGINROLLBACK;GET DIAGNOSTICS C ...

  7. CentOs 设置静态IP

    1.修改网卡配置 编辑:vi /etc/sysconfig/network-scripts/ifcfg-eno49 通过ifconfig命令,查看在用的网卡(特别是网卡别名).也可以进入/etc/sy ...

  8. WPF版公司的自动签到程序

    1.外包公司要求早上签到,就写了一个自动打卡程序. 2.一直都想写这个程序,可是一直没有思路,知道有个软件公司找我做自动答题程序,于是自动打卡程序才应运而生.未来可以将自动答题程序开源工大家查看. 3 ...

  9. MYSQL &plus; MHA &plus;keepalive &plus; VIP安装配置&lpar;二&rpar;--MHA的配置

    一.总概 1.MHA介绍 MHA(Master High Availability)是自动的master故障转移和Slave提升的软件包.它是基于标准的MySQL复制(异步/半同步).      MH ...

  10. Oracle数据库版本10&period;2&period;0&period;1升级到10&period;2&period;0&period;3&lpar;转)

    Oracle数据库版本10.2.0.1升级到10.2.0.3 1.停止OEM/isqlplus/监听/DB实例 $ emctl stop dbconsole $ isqlplusctl stop $ ...