Tutorial: Reverse debugging with GDB 7

Tutorial: Reverse debugging with GDB 7

by Jay Conrod
posted on 2009-12-01

GDB 7 came out a few weeks ago, and one of the major new features is reverse debugging. This allows you to record the execution of a process, then play it backward and forward. This is incredibly useful for fixing those mysterious bugs that are so common in C/C++ programs.

In this post, I'll give a motivating example of why reverse debugging is so useful, then I'll give a summary of the commands you need to know about. You might also want to look at the official tutorial on the GDB wiki, which is a good reference.

Here's a typical program we might have in C. It's very simple, but it contains a subtle bug that causes it to crash when we run it.

          #include <stdio.h>
          #include <stdlib.h>

          void initialize(int *array, int size) {
          for (int i = 0; i <= size; ++i)
          array[i] = 0;
          }

          int main(void) {
          int *p = malloc(sizeof(int));
          int values[10];

          *p = 37;
          initialize(values, 10);
          printf("*p = %d\n", *p);
          free(p);

          return 0;
          }
        

This program is compiled with the following command:

          gcc -ggdb -std=c99 -O0 test.c -o test
        

When we run this program from the command line, we get a segmentation fault. What happened? We load it into gdb and enable recording:

          (gdb) break main
          Breakpoint 1 at 0x8048449: file test.c, line 11.
          (gdb) run
          Starting program: /home/jay/Code/test/test 

          Breakpoint 1, main () at test.c:11
          (gdb) record
          (gdb)
        

The record command turns on recording. It must be issued after the program has started running, so the beginning of main is a good place to use it. If you are debugging code that runs before main (such as C++ global constructors), you may want to set a breakpoint in _start, the actual entry point of the program.

Once recording is enabled, we run the program until the segmentation fault occurs:

          (gdb) continue
          Continuing.
          warning: Process record ignores the memory change of instruction at
          address 0xdd45e1 because it can't get the value of the segment 
          register.

          Program received signal SIGSEGV, Segmentation fault.
          0x0804847b in main () at test.c:15
          (gdb)
        

After getting a weird warning (which appears to occur inside malloc), we find that the segmentation fault occurs at the call to printf. The only memory operation here is dereferencing p, so we print its value:

          (gdb) print p
          $1 = (int *) 0x0
          (gdb) 
        

p should not be null! We set it at the beginning with malloc and never changed its value. We can find out where it was changed by setting a watchpoint and using the reverse-continue command. This works just like you would hope: the program runs backwards until the point at which p was changed. Note that we explicitly set a software watchpoint rather than a hardware watchpoint; GDB 7 seems to silently ignore hardware watchpoints when replaying the program.

          (gdb) set can-use-hw-watchpoints 0
          (gdb) watch p
          Watchpoint 2: p
          (gdb) reverse-continue
          Continuing.
          Watchpoint 2: p

          Old value = (int *) 0x0
          New value = (int *) 0x804b008
          0x0804842c in initialize (array=0xbffff5c0, size=10) at test.c:6
          (gdb) 
        

GDB stops on line 6 in the initialize function. Upon closer examination of the loop, we notice the off-by-one error in the condition. Since the array we passed to initialize is adjacent to p on the stack, we overwrite p when we write off the end of the array.

This kind of error is an example of a buffer overflow, a common bug in C. More severe versions of this bug can create security vulnerabilities. Overflows are usually quite difficult to track down because a variable like p could change many times before taking on a "bad" value like it did here. If we had set a watchpoint at the beginning of a more complex program, the debugger might stop hundreds of times before we found something interesting. More generally, we frequently debug by sneaking up on a fault from the front; if we accidentally pass the fault, we usually have to start over. Reverse debugging allows us to approach a fault much more quickly from behind. We just let the program run normally until we reach a point shortly after a fault has occurred (for instance, when the SIGSEGV signal is received). We then run the program backward until we find what went wrong. The debugger can do pretty much the same things running backward as forward, including setting new watchpoints and breakpoints.

Before we wrap up, here's a quick summary of useful commands for reverse debugging:

  • record - enable recording mode. This command must be issued while the program is running, and you can only run the program back to the point where this command was issued. There is a performance penalty.
  • reverse-step, reverse-next, reverse-finish, reverse-continue - just like the normal versions of the commands, but in the opposite direction.set exec-direction reverse - switches the program execution direction to reverse. The step, next, finish, continue commands will work in the currect execution direction.
  • set can-use-hw-watchpoints 0 - disables hardware watch points. This is necessary if you want to use watchpoints while running the program in reverse.

Once again, you need GDB 7 in order to use reverse debugging. It is supplied as part of Ubuntu 9.10 (Karmic) and other newer Linux distributions. Since reverse debugging a fairly new feature, it's not as complete as one would hope, so there's an official wish list which contains bugs and feature requests.

Finally, I'd like to reference Sebastien Duquette's tutorial on reverse debugging, which is where I found out that you need to disable hardware watchpoints. If you're interested in how reverse debugging actually works, Michael Snyder (one of the GDB developers responsible for it) has a short post on StackOverflow about it.


Comment by Lakshmy m.a posted on Fri Mar 5 09:24:25 2010

sir, Am a student of model engineering college trikakkara of ernakulam district,kerala,India.we a group of 4 took this rgdb as our mini project.i would like to get some technical support from your side.can you please send me a mail as your respones, sir i couldnt get ur mail id...so that i can mail you we would like to get a tutorial of each reverse commands implementation + its logic we have downloaded the source code of the new version of gdb.7 but we couldnt understand the logic ,since its very lengthy, and we hav a short time to for our mini project section... It will be very helpful if we get the basic idea behind this.


http://www.jayconrod.com/posts/28/tutorial-reverse-debugging-with-gdb-7

Windows 下更改GTK显示字体

2014年9月03日 00:09

 

| Posted in SoftWare |

 

介绍如何在 GTK+ 中使用微软雅黑字体。

找到 …\etc\pango\pango.aliases 文件,添加一行:

msyh = “Microsoft YaHei”

这就声明了雅黑字体,当然 Windows 字体目录下面应该有雅黑字体,Microsoft YaHei 就是字体的名字,比如还有 Simsun 宋体。我们把雅黑字体定义为一个字体族 msyh。

找到 …\gtk-2.0\gtkrc文件,将下 面内容加到后面

style “user-font” {
font_name = “msyh 9″
}

widget_class “*” style “user-font”

gtk-font-name=”msyh 9″

这样应用程序的字体就变成微软雅黑了。

(from http://www.firefoxfacts.com/2008/09/10/search-from-the-address-bar-in-firefox/)

The other day, when we were talking about bringing Chrome features into Firefox, the topic “searching from the address bar” was mentioned.  By default, when you type a word into the address bar by itself, it gives you Google’s “I’m Feeling Lucky” number one result. 

awesome-bar

What if you just want to do a regular Google search? 

There is an easy way to turn your address bar into a Google search box.  You want to type into your address bar about:config.  Next, type into the filter keyword.URL. Once you have found it there, modify the string in there and replace it with:

http://www.google.com/search?btnG=Google+Search&q=

From now on, when you type in a word or phrase into the address bar and hit enter, it will launch a Google search for it rather than giving you Google’s top result for that word or phrase.

iTunes10.7更新,xCode 安装Mobile Device Framework出错的问题的解决方法

 

下午更新itunes10.7后,再次打开xCode时提示需要安装Mobile Device Framework,不过总安装失败,

提示" An unknown error occurred. See theinstall log for more details."

 

解决方法:

去finder中找到xCode文件,右键->"Show Package contents"->到"/Contents/Resources/Packages/"->安装“MobileDevice.pkg”->OK!

 

整理自:

https://discussions.apple.com/thread/3863980?start=0&tstart=0

From : www.cnblogs.com/zhulin/archive/2012/09/13/2683994.html

在Google搜索结果显示原始链接

  使用Google的https搜索的时候,我们会发现搜索结果虽然可以显示,但是有时候结果的链接却无法打开。这里的原因是因为Google的https的搜索结果链接往往使用的是http的方式打开,因此有时候会无法访问,本文将介绍在Chrome下解决这个问题的方法。

  早先一篇文章的解决方案是强制http重定向到https,今天再介绍一个方法,即直接在Google搜索结果中显示原始链接,而不再经过Google的跳转。这个方法不仅仅解决了稳定性的问题,而且链接打开速度也是最快的。

  这个方法就是使用一个Google SSL Privacy Real Link的UserScript(注释),这个脚本在Firefox里安装Greasemonkey后即可访问该UserScript地址进行下载使用。

  在Chrome里的安装方法有两个:

  1、使用Tampermonkey扩展以安装和管理用户脚本。这个扩展的功能和Greasemonkey一样,安装好Tampermonkey后,即可访问该UserScript的地址即可进行安装使用。

  2、该UserScript作者自己封装了一个Crx扩展文件,点击这里可以下载,下载完成后,由于该扩展没有放到Google Chrome官方商店里,因此需要手动安装,安装方法是,打开Chrome的“工具”-“扩展程序”页面,然后将下载的Crx文件拖过去,即可安装。

  安装完成之后,在Chrome里的地址栏,点右键-“修改搜索引擎”,将https的Google搜索设置为默认,这样用户即可在https的Google中搜索并打开搜索地址的链接了。

  现在上Google真是个技术活啊。

  注释:用户脚本(UserScript)是一种强大的客户端(浏览器)Javascript脚本。下载了用户脚本保存在电脑里,通过浏览器的某些扩展程序(最常用的是Firefox的Greasemonkey扩展),就可以运行于相关页面上。用户脚本可以任意修改HTML页面,请求其他站点的数据等。比如任意网页上选中了文字,按快捷键就帮你翻译或搜索,把Baidu、Google搜索页重新排版去广告,等等等等。

 


  除非注明,月光博客文章均为原创,转载请以链接形式标明本文地址

  本文地址:http://www.williamlong.info/archives/3284.html

 

如何选择开源许可证?

 

作者: 阮一峰

日期: 2011年5月 2日

如何为代码选择开源许可证,这是一个问题。

世界上的开源许可证,大概有上百种。很少有人搞得清楚它们的区别。即使在最流行的六种----GPLBSDMITMozillaApacheLGPL----之中做选择,也很复杂。

乌克兰程序员Paul Bagwell,画了一张分析图,说明应该怎么选择。这是我见过的最简单的讲解,只用两分钟,你就能搞清楚这六种许可证之间的最大区别。

下面是我制作的中文版,请点击看大图。

~/tmp/free_software_licenses.png

(完)

GIT 备忘

2014年9月03日 00:09

GitMemo

Author: Tubo

近来一直在用 git 来管理代码,使用过程中会时不时地遇到一些问题或者有些想法,然后就去查该怎么做。 这里将查到的一些东西做个记录,以便查阅。

这不是一个 git 的 FAQ, 但如果有兴趣或者有需要,可以来 这里 查阅 GitFaq。

此外,如果没有接触过 Git, 推荐阅读一下 OpenGit 上的 progit

1 分支管理

 

1.1 怎样在本地创建一个分支?

很简单:

git branch BranchName

但上述命令仅仅创建一个 branch,并不会自动切换到新的分支,想要切换的话需要使用 git checkout:

git checkout BranchName

或者可以在 checkout 后面加上 "-b" 选项,形如:

git checkout -b BranchName

1.2 怎样创建一个远端的分支?

无需单独创建,直接 push 即可,形如:

git push origin BranchName

1.3 怎样删除本地分支?

git branch -d BranchName

如果我们对名为 BranchName 的分支做了一些更改,但在尚未合并到其他分支的时候就想直接将其删掉, 可以利用 -D 选项:

git branch -D BranchName

1.4 怎样删除远端分支?

很多 git 的命令都可以通过 "-r" 来表明要对远端进行操作,但

git branch -d -r BranchName

却不会删除远端的分支 —— 它仅仅告诉 git 不用追踪远端分支的变化。

删除远端分支优点 tricky:

git push origin :BranchName

2 Diff 相关

 

2.1 如何查看某次提交更改了哪些文件?

git diff --name-only SHA1 SHA2

其中, SHA1 SHA2 为两次 commit 的 SHA1 值。

2.2 如何打补丁

使用 git apply , 具体可参考 progit 中相关内容。

 

3 Miscs

 

3.1 如何找到 GIT repository 的根目录?

git rev-parse --show-toplevel

3.2 GIT Submodule 是什么,怎么用?

中文叫做“子模块”,用来将外部的 repository 嵌入到本地的代码目录。下面的链接很不错,值得阅读: http://chrisjean.com/2009/04/20/git-submodules-adding-using-removing-and-updating/

3.3 core.autocrlf

(http://www.open-open.com/lib/view/open1328070404827.html)

假如你正在Windows上写程序,又或者你正在和其他人合作,他们在Windows上编程,而你却在其他系统上,在这些情况下,你可能会遇到行尾结束符问题。这是因为Windows使用回车和换行两个字符来结束一行,而Mac和Linux只使用换行一个字符。虽然这是小问题,但它会极大地扰乱跨平台协作。

Git可以在你提交时自动地把行结束符CRLF转换成LF,而在签出代码时把LF转换成CRLF。用core.autocrlf来打开此项功能,如果是在Windows系统上,把它设置成true,这样当签出代码时,LF会被转换成CRLF:

$ git config --global core.autocrlf true

Linux或Mac系统使用LF作为行结束符,因此你不想 Git 在签出文件时进行自动的转换;当一个以CRLF为行结束符的文件不小心被引入时你肯定想进行修正,把core.autocrlf设置成input来告诉 Git 在提交时把CRLF转换成LF,签出时不转换:

$ git config --global core.autocrlf input

这样会在Windows系统上的签出文件中保留CRLF,会在Mac和Linux系统上,包括仓库中保留LF。

如果你是Windows程序员,且正在开发仅运行在Windows上的项目,可以设置false取消此功能,把回车符记录在库中:

$ git config --global core.autocrlf false



3.4 GIT: ignoring changes in tracked files (http://blog.pagebakers.nl/2009/01/29/git-ignoring-changes-in-tracked-files/)

There may be times when you want to edit some variables in for example a database connection file, to run an application right from within your GIT repo. Of course you don’t wont those changes to be commited, so you add the file the .gitignore.
However adding tracked files to .gitignore won’t work because GIT will still track the changes and commit the file if you use the -a parameter.

Fortunately GIT has a very easy solution for this, just run the following command on the file or path you want to ignore the changes of:

git update-index --assume-unchanged <file>

If you wanna start tracking changes again run the following command:

git update-index --no-assume-unchanged <file>

You can find more info about this in the git manual.

 

3.5 How do I remove a git submodule?

To remove a submodule you need to:

  1. Delete the relevant section from the .gitmodules file.
  2. Delete the relevant section from .git/config.
  3. Run git rm --cached path_to_submodule (no trailing slash).
  4. Commit and delete the now untracked submodule files.
http://stackoverflow.com/questions/1260748/how-do-i-remove-a-git-submodule
https://git.wiki.kernel.org/index.php/GitSubmoduleTutorial
 


项目开发中有个困境:代码库通过 perforce 管理,所有代码必须通过 code review 后才能上传,但有时候一个 feature 的 code 还没开始上传(等待 review 中)就需要为下一个 feature 开始编码,而且很有可能两个 Feature 中会修改同样的文件,这种情况下, 用 git 来管理自己本地代码是个不错的选择。

下面的介绍中,第一部分来自于 opengit.org , 介绍了 git 的分支管理,后一部分简要介绍了如何在本地通过 git 建立简单的 repository 。 建立完 repo 之后就可以按照第一部分介绍的分支管理来管理分支了。


1 Git 分支 (from opengit.org)

 
几乎每一种版本控制系统都以某种形式支持分支。使用分支意味着你可以从开发主线上分离开来,然后在不影响主线的同时继续工作。在很多版本控制系统中,这是个昂贵的过程,常常需要创建一个源代码目录的完整副本,对大型项目来说会花费很长时间。

有人把 Git 的分支模型称为“必杀技特性”,而正是因为它,将 Git 从版本控制系统家族里区分出来。Git 有何特别之处呢?Git 的分支可谓是难以置信的轻量级,它的新建操作几乎可以在瞬间完成,并且在不同分支间切换起来也差不多一样快。和许多其他版本控制系统不同,Git 鼓励在工作流程中频繁使用分支与合并,哪怕一天之内进行许多次都没有关系。理解分支的概念并熟练运用后,你才会意识到为什么 Git 是一个如此强大而独特的工具,并从此真正改变你的开发方式。

何谓分支

为了理解 Git 分支的实现方式,我们需要回顾一下 Git 是如何储存数据的。或许你还记得第一章的内容,Git 保存的不是文件差异或者变化量,而只是一系列文件快照。

在 Git 中提交时,会保存一个提交(commit)对象,它包含一个指向暂存内容快照的指针,作者和相关附属信息,以及一定数量(也可能没有)指向该提交对象直接祖先的指针:第一次提交是没有直接祖先的,普通提交有一个祖先,由两个或多个分支合并产生的提交则有多个祖先。

为直观起见,我们假设在工作目录中有三个文件,准备将它们暂存后提交。暂存操作会对每一个文件计算校验和(即第一章中提到的 SHA-1 哈希字串),然后把当前版本的文件快照保存到 Git 仓库中(Git 使用 blob 类型的对象存储这些快照),并将校验和加入暂存区域:

$ git add README test.rb LICENSE2 $ git commit -m 'initial commit of my project' 

当使用 git commit 新建一个提交对象前,Git 会先计算每一个子目录(本例中就是项目根目录)的校验和,然后在 Git 仓库中将这些目录保存为树(tree)对象。之后 Git 创建的提交对象,除了包含相关提交信息以外,还包含着指向这个树对象(项目根目录)的指针,如此它就可以在将来需要的时候,重现此次快照的内容了。

现在,Git 仓库中有五个对象:三个表示文件快照内容的 blob 对象;一个记录着目录树内容及其中各个文件对应 blob 对象索引的 tree 对象;以及一个包含指向 tree 对象(根目录)的索引和其他提交信息元数据的 commit 对象。概念上来说,仓库中的各个对象保存的数据和相互关系看起来如图 3-1 所示:

03-1
图 3-1. 一次提交后仓库里的数据

作些修改后再次提交,那么这次的提交对象会包含一个指向上次提交对象的指针(译注:即下图中的 parent 对象)。两次提交后,仓库历史会变成图 3-2 的样子:

03-2
图 3-2. 多次提交后的 Git 对象数据

现在来谈分支。Git 中的分支,其实本质上仅仅是个指向 commit 对象的可变指针。Git 会使用 master 作为分支的默认名字。在若干次提交后,你其实已经有了一个指向最后一次提交对象的 master 分支,它在每次提交的时候都会自动向前移动。

03-3
图 3-3. 指向提交数据历史的分支

那么,Git 又是如何创建一个新的分支的呢?答案很简单,创建一个新的分支指针。比如新建一个 testing 分支,可以使用 git branch 命令:

$ git branch testing 

这会在当前 commit 对象上新建一个分支指针(见图 3-4)。

03-4
图 3-4. 多个分支指向提交数据的历史

那么,Git 是如何知道你当前在哪个分支上工作的呢?其实答案也很简单,它保存着一个名为 HEAD 的特别指针。请注意它和你熟知的许多其他版本控制系统(比如 Subversion 或 CVS)里的 HEAD 概念大不相同。在 Git 中,它是一个指向你正在工作中的本地分支的指针。运行 git branch 命令,仅仅是建立了一个新的分支,但不会自动切换到这个分支中去,所以在这个例子中,我们依然还在 master 分支里工作(参考图 3-5)。

03-5
图 3-5. HEAD 指向当前所在的分支

要切换到其他分支,可以执行 git checkout 命令。我们现在转换到新建的 testing 分支:

$ git checkout testing 

这样 HEAD 就指向了 testing 分支(见图3-6)。

03-6
图 3-6. HEAD 在你转换分支时指向新的分支

这样的实现方式会给我们带来什么好处呢?好吧,现在不妨再提交一次:

$ vim test.rb $ git commit -a -m 'made a change' 

图 3-7 展示了提交后的结果。

03-7
图 3-7. 每次提交后 HEAD 随着分支一起向前移动

非常有趣,现在 testing 分支向前移动了一格,而 master 分支仍然指向原先 git checkout 时所在的 commit 对象。现在我们回到 master 分支看看:

$ git checkout master 

图 3-8 显示了结果。

03-8
图 3-8. HEAD 在一次 checkout 之后移动到了另一个分支

这条命令做了两件事。它把 HEAD 指针移回到 master 分支,并把工作目录中的文件换成了 master 分支所指向的快照内容。也就是说,现在开始所做的改动,将始于本项目中一个较老的版本。它的主要作用是将 testing 分支里作出的修改暂时取消,这样你就可以向另一个方向进行开发。

我们作些修改后再次提交:

$ vim test.rb $ git commit -a -m 'made other changes' 

现在我们的项目提交历史产生了分叉(如图 3-9 所示),因为刚才我们创建了一个分支,转换到其中进行了一些工作,然后又回到原来的主分支进行了另外一些工作。这些改变分别孤立在不同的分支里:我们可以在不同分支里反复切换,并在时机成熟时把它们合并到一起。而所有这些工作,仅仅需要 branchcheckout 这两条命令就可以完成。

03-9
图 3-9. 分叉了的分支历史

由于 Git 中的分支实际上仅是一个包含所指对象校验和(40 个字符长度 SHA-1 字串)的文件,所以创建和销毁一个分支就变得非常廉价。说白了,新建一个分支就是向一个文件写入 41 个字节(外加一个换行符)那么简单,当然也就很快了。

这和大多数版本控制系统形成了鲜明对比,它们管理分支大多采取备份所有项目文件到特定目录的方式,所以根据项目文件数量和大小不同,可能花费的时间也会有相当大的差别,快则几秒,慢则数分钟。而 Git 的实现与项目复杂度无关,它永远可以在几毫秒的时间内完成分支的创建和切换。同时,因为每次提交时都记录了祖先信息(译注:即 parent 对象),所以以后要合并分支时,寻找恰当的合并基础(译注:即共同祖先)的工作其实已经完成了一大半,实现起来非常容易。Git 鼓励开发者频繁使用分支,正是因为有着这些特性作保障。

接下来看看,我们为什么应该频繁使用分支。

基本的分支与合并

现在让我们来看一个简单的分支与合并的例子,实际工作中大体也会用到这样的工作流程:

  1. 开发某个网站。
  2. 为实现某个新的需求,创建一个分支。
  3. 在这个分支上开展工作。

假设此时,你突然接到一个电话说有个很严重的问题需要紧急修补,那么可以按照下面的方式处理:

  1. 返回到原先已经发布到生产服务器上的分支。
  2. 为这次紧急修补建立一个新分支。
  3. 测试通过后,将此修补分支合并,再推送到生产服务器上。
  4. 切换到之前实现新需求的分支,继续工作。

基本分支

首先,我们假设你正在项目中愉快地工作,并且已经提交了几次更新(见图 3-10)。

03-10
图 3-10. 一部分简短的提交历史

现在,你决定要修补问题追踪系统上的 #53 问题。顺带说明下,Git 并不同任何特定的问题追踪系统打交道。这里为了说明要解决的问题,才把新建的分支取名为 iss53。要新建并切换到该分支,运行 git checkout 并加上 -b 参数:

$ git checkout -b iss53 Switched to a new branch "iss53" 

相当于下面这两条命令:

$ git branch iss53 $ git checkout iss53 

图 3-11 示意该命令的结果。

03-11
图 3-11. 创建了一个新的分支指针

接下来,你在网站项目上继续工作并作了一次提交。这会使 iss53 分支的指针随着提交向前推进,因为它处于检出状态(或者说,你的 HEAD 指针目前正指向它,见图3-12):

$ vim index.html $ git commit -a -m 'added a new footer [issue 53]' 

03-12
图 3-12. iss53 分支随工作进展向前推进

现在你就接到了那个网站问题的紧急电话,需要马上修补。有了 Git ,我们就不需要同时发布这个补丁和 iss53 里作出的修改,也不需要在创建和发布该补丁到服务器之前花费很多努力来复原这些修改。唯一需要的仅仅是切换回 master 分支。

不过在此之前,留心你的暂存区或者工作目录里,那些还没有提交的修改,它会和你即将检出的分支产生冲突从而阻止 Git 为你转换分支。转换分支的时候最好保持一个清洁的工作区域。稍后会介绍几个绕过这种问题的办法(分别叫做 stashing 和 amending)。目前已经提交了所有的修改,所以接下来可以正常转换到 master 分支:

$ git checkout master Switched to branch "master" 

此时工作目录中的内容和你在解决问题 #53 之前一模一样,你可以集中精力进行紧急修补。这一点值得牢记:Git 会把工作目录的内容恢复为检出某分支时它所指向的那个 commit 的快照。它会自动添加、删除和修改文件以确保目录的内容和你上次提交时完全一样。

接下来,你得进行紧急修补。我们创建一个紧急修补分支(hotfix)来开展工作,直到搞定(见图 3-13):

$ git checkout -b 'hotfix' Switched to a new branch "hotfix" $ vim index.html $ git commit -a -m 'fixed the broken email address' [hotfix]: created 3a0874c: "fixed the broken email address" 1 files changed, 0 insertions(+), 1 deletions(-) 

03-13
图 3-13. hotfix 分支是从 master 分支所在点分化出来的

有必要作些测试,确保修补是成功的,然后把它合并到 master 分支并发布到生产服务器。用 git merge 命令来进行合并:

$ git checkout master $ git merge hotfix Updating f42c576..3a0874c Fast forward README | 1 - 1 files changed, 0 insertions(+), 1 deletions(-) 

请注意,合并时出现了 "Fast forward"(快进)提示。由于当前 master 分支所在的 commit 是要并入的 hotfix 分支的直接上游,Git 只需把指针直接右移。换句话说,如果顺着一个分支走下去可以到达另一个分支,那么 Git 在合并两者时,只会简单地把指针前移,因为没有什么分歧需要解决,所以这个过程叫做快进(Fast forward)。

现在的目录变为当前 master 分支指向的 commit 所对应的快照,可以发布了(见图 3-14)。

03-14
图 3-14. 合并之后,master 分支和 hotfix 分支指向同一位置。

在那个超级重要的修补发布以后,你想要回到被打扰之前的工作。因为现在 hotfix 分支和 master 指向相同的提交,现在没什么用了,可以先删掉它。使用 git branch-d 选项表示删除:

$ git branch -d hotfix Deleted branch hotfix (3a0874c). 

现在可以回到未完成的问题 #53 分支继续工作了(图3-15):

$ git checkout iss53 Switched to branch "iss53" $ vim index.html $ git commit -a -m 'finished the new footer [issue 53]' [iss53]: created ad82d7a: "finished the new footer [issue 53]" 1 files changed, 1 insertions(+), 0 deletions(-) 

03-15
图 3-15. iss53 分支可以不受影响继续推进。

不用担心 hotfix 分支的内容还没包含在 iss53 中。如果确实需要纳入此次修补,可以用 git merge master 把 master 分支合并到 iss53,或者等完成后,再将 iss53 分支中的更新并入 master

基本合并

在问题 #53 相关的工作完成之后,可以合并回 master 分支,实际操作同前面合并 hotfix 分支差不多,只需检出想要更新的分支(master),并运行 git merge 命令指定来源:

$ git checkout master $ git merge iss53 Merge made by recursive. README | 1 + 1 files changed, 1 insertions(+), 0 deletions(-) 

请注意,这次合并的实现,并不同于之前 hotfix 的并入方式。这一次,你的开发历史是从更早的地方开始分叉的。由于当前 master 分支所指向的 commit (C4)并非想要并入分支(iss53)的直接祖先,Git 不得不进行一些处理。就此例而言,Git 会用两个分支的末端(C4 和 C5)和它们的共同祖先(C2)进行一次简单的三方合并计算。图 3-16 标出了 Git 在用于合并的三个更新快照:

03-16
图 3-16. Git 为分支合并自动识别出最佳的同源合并点。

Git 没有简单地把分支指针右移,而是对三方合并的结果作一新的快照,并自动创建一个指向它的 commit(C6)(见图 3-17)。我们把这个特殊的 commit 称作合并提交(merge commit),因为它的祖先不止一个。

值得一提的是 Git 可以自己裁决哪个共同祖先才是最佳合并基础;这和 CVS 或 Subversion(1.5 以后的版本)不同,它们需要开发者手工指定合并基础。所以此特性让 Git 的合并操作比其他系统都要简单不少。

03-17
图 3-17. Git 自动创建了一个包含了合并结果的 commit 对象。

既然你的工作成果已经合并了,iss53 也就没用了。你可以就此删除它,并在问题追踪系统里把该问题关闭。

$ git branch -d iss53 

冲突的合并

有时候合并操作并不会如此顺利。如果你修改了两个待合并分支里同一个文件的同一部分,Git 就无法干净地把两者合到一起(译注:逻辑上说,这种问题只能由人来解决)。如果你在解决问题 #53 的过程中修改了 hotfix 中修改的部分,将得到类似下面的结果:

$ git merge iss53 Auto-merging index.html CONFLICT (content): Merge conflict in index.html Automatic merge failed; fix conflicts and then commit the result. 

Git 作了合并,但没有提交,它会停下来等你解决冲突。要看看哪些文件在合并时发生冲突,可以用 git status 查阅:

[master*]$ git status index.html: needs merge # On branch master # Changed but not updated: # (use "git add <file>..." to update what will be committed) # (use "git checkout -- <file>..." to discard changes in working directory) # # unmerged: index.html # 

任何包含未解决冲突的文件都会以未合并(unmerged)状态列出。Git 会在有冲突的文件里加入标准的冲突解决标记,可以通过它们来手工定位并解决这些冲突。可以看到此文件包含类似下面这样的部分:

<<<<<<< HEAD:index.html <div id="footer">contact : email.support@github.com</div> ======= <div id="footer"> please contact us at support@github.com </div> >>>>>>> iss53:index.html 

可以看到 ======= 隔开的上半部分,是 HEAD(即 master 分支,在运行 merge 命令时检出的分支)中的内容,下半部分是在 iss53 分支中的内容。解决冲突的办法无非是二者选其一或者由你亲自整合到一起。比如你可以通过把这段内容替换为下面这样来解决:

<div id="footer"> please contact us at email.support@github.com </div> 

这个解决方案各采纳了两个分支中的一部分内容,而且我还删除了 <<<<<<<=======,和>>>>>>> 这些行。在解决了所有文件里的所有冲突后,运行 git add 将把它们标记为已解决(resolved)。因为一旦暂存,就表示冲突已经解决。如果你想用一个有图形界面的工具来解决这些问题,不妨运行 git mergetool,它会调用一个可视化的合并工具并引导你解决所有冲突:

$ git mergetool merge tool candidates: kdiff3 tkdiff xxdiff meld gvimdiff opendiff emerge vimdiff Merging the files: index.html Normal merge conflict for 'index.html': {local}: modified {remote}: modified Hit return to start merge resolution tool (opendiff): 

如果不想用默认的合并工具(Git 为我默认选择了 opendiff,因为我在 Mac 上运行了该命令),你可以在上方"merge tool candidates(候选合并工具)"里找到可用的合并工具列表,输入你想用的工具名。我们将在第七章讨论怎样改变环境中的默认值。

退出合并工具以后,Git 会询问你合并是否成功。如果回答是,它会为你把相关文件暂存起来,以表明状态为已解决。

再运行一次 git status 来确认所有冲突都已解决:

$ git status # On branch master # Changes to be committed: # (use "git reset HEAD <file>..." to unstage) # # modified: index.html # 

如果觉得满意了,并且确认所有冲突都已解决,也就是进入了缓存区,就可以用 git commit 来完成这次合并提交。提交的记录差不多是这样:

Merge branch 'iss53' Conflicts: index.html # # It looks like you may be committing a MERGE. # If this is not correct, please remove the file # .git/MERGE_HEAD # and try again. # 

如果想给将来看这次合并的人一些方便,可以修改该信息,提供更多合并细节。比如你都作了哪些改动,以及这么做的原因。有时候裁决冲突的理由并不直接或明显,有必要略加注解。

分支管理

到目前为止,你已经学会了如何创建、合并和删除分支。除此之外,我们还需要学习如何管理分支,在日后的常规工作中会经常用到下面介绍的管理命令。

git branch 命令不仅仅能创建和删除分支,如果不加任何参数,它会给出当前所有分支的清单:

$ git branch iss53 * master testing 

注意看 master 分支前的 * 字符:它表示当前所在的分支。也就是说,如果现在提交更新,master 分支将随着开发进度前移。若要查看各个分支最后一次 commit 信息,运行 git branch -v

$ git branch -v iss53 93b412c fix javascript issue * master 7a98805 Merge branch 'iss53' testing 782fd34 add scott to the author list in the readmes 

要从该清单中筛选出你已经(或尚未)与当前分支合并的分支,可以用 --merge--no-merged 选项(Git 1.5.6 以上版本)。比如 git branch -merge 查看哪些分支已被并入当前分支:

$ git branch --merged iss53 * master 

之前我们已经合并了 iss53,所以在这里会看到它。一般来说,列表中没有 * 的分支通常都可以用 git branch -d 来删掉。原因很简单,既然已经把它们所包含的工作整合到了其他分支,删掉也不会损失什么。

另外可以用 git branch --no-merged 查看尚未合并的工作:

$ git branch --no-merged testing 

我们会看到其余还未合并的分支。因为其中还包含未合并的工作,用 git branch -d 删除该分支会导致失败:

$ git branch -d testing error: The branch 'testing' is not an ancestor of your current HEAD. 

不过,如果你坚信你要删除它,可以用大写的删除选项 -D 强制执行,例如 git branch -D testing

分支式工作流程

如今有了分支与合并的基础,你可以(或应该)用它来做点什么呢?在本节,我们会介绍些使用分支进行开发的工作流程。而正是由于分支管理的便捷,才衍生出了这类典型的工作模式,有机会可以实践一下。

长期分支

由于 Git 使用简单的三方合并,所以就算在较长一段时间内,反复多次把某个分支合并到另一分支,也不是什么难事。也就是说,你可以同时拥有多个开放的分支,每个分支用于完成特定的任务,随着开发的推进,你可以随时把某个特性分支的成果并到其他分支中。

许多使用 Git 的开发者都喜欢以这种方式来开展工作,比如仅在 master 分支中保留完全稳定的代码,即已经发布或即将发布的代码。与此同时,他们还有一个名为 develop 或 next 的平行分支,专门用于后续的开发,或仅用于稳定性测试 —— 当然并不是说一定要绝对稳定,不过一旦进入某种稳定状态,便可以把它合并到 master 里。这样,在确保这些已完成的特性分支(短期分支,如前例的 iss53)能够通过所有测试,并且不会引入更多错误之后,就可以并到主干分支中,等待下一次的发布。

本质上我们刚才谈论的,是随着 commit 不停前移的指针。稳定分支的指针总是在提交历史中落后一大截,而前沿分支总是比较靠前(见图 3-18)。

03-18
图 3-18. 稳定分支总是比较老旧。

或者把它们想象成工作流水线可能会比较容易理解,经过测试的 commit 集合被遴选到更稳定的流水线(见图 3-19)。

03-19
图 3-19. 想象成流水线可能会容易点。

你可以用这招维护不同层次的稳定性。某些大项目还会有个 proposed(建议)或 pu(proposed updates,建议更新)分支,它包含着那些可能还没有成熟到进入 nextmaster 的内容。这么做的目的是拥有不同层次的稳定性:当这些分支进入到更稳定的水平时,再把它们合并到更高层分支中去。再次说明下,使用多个长期分支的做法并非必需,不过一般来说,对于特大型项目或特复杂的项目,这么做确实更容易管理。

特性分支

在任何规模的项目中都可以使用特性(Topic)分支。一个特性分支是指一个短期的,用来实现单一特性或与其相关工作的分支。可能你在以前的版本控制系统里从未做过类似这样的事请,因为通常创建与合并分支消耗太大。然而在 Git 中,一天之内建立,使用,合并再删除多个分支是常见的事。

我们在上节的例子里已经见过这种用法了。我们创建了 iss53hotfix 这两个特性分支,在提交了若干更新后,把它们合并到主干分支,然后删除。该技术允许你迅速且完全的进行语境切换 —— 因为你的工作分散在不同的流水线里,每个分支里的改变都和它的目标特性相关,浏览代码之类的事情因而变得更简单了。你可以把作出的改变保持在特性分支中几分钟,几天甚至几个月,等它们成熟以后再合并,而不用在乎它们建立的顺序或者进度。

现在我们来看一个实际的例子。请看图 3-20,起先我们在 master 工作到 C1,然后开始一个新分支 iss91 尝试修复 91 号缺陷,提交到 C6 的时候,又冒出一个新的解决问题的想法,于是从之前 C4 的地方又分出一个分支 iss91v2,干到 C8 的时候,又回到主干中提交了 C9 和 C10,再回到 iss91v2 继续工作,提交 C11,接着,又冒出个不太确定的想法,从 master 的最新提交 C10 处开了个新的分支 dumbidea 做些试验。

03-20
图 3-20. 拥有多个特性分支的提交历史。

现在,假定两件事情:我们最终决定使用第二个解决方案,即 iss91v2 中的办法;另外,我们把 dumbidea 分支拿给同事们看了以后,发现它竟然是个天才之作。所以接下来,我们抛弃原来的 iss91 分支(即丢弃 C5 和 C6),直接在主干中并入另外两个分支。最终的提交历史将变成图 3-21 这样:

03-21
图 3-21. 合并了 dumbidea 和 iss91v2 以后的历史。

请务必牢记这些分支全部都是本地分支,这一点很重要。当你在使用分支及合并的时候,一切都是在你自己的 Git 仓库中进行的 —— 完全不涉及与服务器的交互。

远程分支

远程分支(remote branch)是对远程仓库状态的索引。它们是一些无法移动的本地分支;只有在进行 Git 的网络活动时才会更新。远程分支就像是书签,提醒着你上次连接远程仓库时上面各分支的位置。

我们用 (远程仓库名)/(分支名) 这样的形式表示远程分支。比如我们想看看上次同 origin 仓库通讯时 master 的样子,就应该查看 origin/master 分支。如果你和同伴一起修复某个问题,但他们先推送了一个 iss53 分支到远程仓库,虽然你可能也有一个本地的 iss53 分支,但指向服务器上最新更新的却应该是 origin/iss53 分支。

可能有点乱,我们不妨举例说明。假设你们团队有个地址为 git.ourcompany.com 的 Git 服务器。如果你从这里克隆,Git 会自动为你将此远程仓库命名为 origin,并下载其中所有的数据,建立一个指向它的 master 分支的指针,在本地命名为 origin/master,但你无法在本地更改其数据。接着,Git 建立一个属于你自己的本地 master 分支,始于 originmaster 分支相同的位置,你可以就此开始工作(见图 3-22):

03-22
图 3-22. 一次 Git 克隆会建立你自己的本地分支 master 和远程分支 origin/master,它们都指向 origin/master 分支的最后一次提交。

要是你在本地 master 分支做了会儿事情,与此同时,其他人向 git.ourcompany.com 推送了内容,更新了上面的 master 分支,那么你的提交历史会开始朝不同的方向发展。不过只要你不和服务器通讯,你的 origin/master 指针不会移动(见图 3-23)。

03-23
图 3-23. 在本地工作的同时有人向远程仓库推送内容会让提交历史发生分歧。

可以运行 git fetch origin 来进行同步。该命令首先找到 origin 是哪个服务器(本例为 git.ourcompany.com),从上面获取你尚未拥有的数据,更新你本地的数据库,然后把 origin/master 的指针移到它最新的位置(见图 3-24)。

03-24
图 3-24. git fetch 命令会更新 remote 索引。

为了演示拥有多个远程分支(不同的远程服务器)的项目是个什么样,我们假设你还有另一个仅供你的敏捷开发小组使用的内部服务器 git.team1.ourcompany.com。可以用第二章中提到的 git remote add 命令把它加为当前项目的远程分支之一。我们把它命名为 teamone,表示那一整串 Git 地址(见图 3-25)。

03-25
图 3-25. 把另一个服务器加为远程仓库

现在你可以用 git fetch teamone 来获取小组服务器上你还没有的数据了。由于当前该服务器上的内容是你 origin 服务器上的子集,Git 不会下载任何数据,而只是简单地创建一个名为 teamone/master 的分支来指向 teamone 服务器上 master 所指向的更新 31b8e(见图 3-26)。

03-26
图 3-26. 你在本地有了一个指向 teamone 服务器上 master 分支的索引。

推送

要想和其他人分享某个分支,你需要把它推送到一个你拥有写权限的远程仓库。你的本地分支不会被自动同步到你引入的远程分支中,除非你明确执行推送操作。换句话说,对于无意分享的,你尽可以保留为私人分支,而只推送那些协同工作的特性分支。

如果你有个叫 serverfix 的分支需要和他人一起开发,可以运行 git push (远程仓库名) (分支名)

$ git push origin serverfix Counting objects: 20, done. Compressing objects: 100% (14/14), done. Writing objects: 100% (15/15), 1.74 KiB, done. Total 15 (delta 5), reused 0 (delta 0) To git@github.com:schacon/simplegit.git * [new branch] serverfix -> serverfix ORG-LIST-END-MARKER 

这其实有点像条捷径。Git 自动把 serverfix 分支名扩展为 refs/heads/serverfix:refs/heads/serverfix,意为“取出我的 serverfix 本地分支,推送它来更新远程仓库的 serverfix 分支”。我们将在第九章进一步介绍 refs/heads/ 部分的细节,不过一般使用的时候都可以省略它。也可以运行 git push origin serverfix:serferfix 来实现相同的效果,它的意思是“提取我的 serverfix 并更新到远程仓库的 serverfix”。通过此语法,你可以把本地分支推送到某个命名不同的远程分支:若想把远程分支叫作 awesomebranch,可以用 git push origin serverfix:awesomebranch 来推送数据。

接下来,当你的协作者再次从服务器上获取数据时,他们将得到一个新的远程分支 origin/serverfix

$ git fetch origin remote: Counting objects: 20, done. remote: Compressing objects: 100% (14/14), done. remote: Total 15 (delta 5), reused 0 (delta 0) Unpacking objects: 100% (15/15), done. From git@github.com:schacon/simplegit * [new branch] serverfix -> origin/serverfix ORG-LIST-END-MARKER 

值得注意的是,在 fetch 操作抓来新的远程分支之后,你仍然无法在本地编辑该远程仓库。换句话说,在本例中,你不会有一个新的 serverfix 分支,有的只是一个你无法移动的 origin/serverfix 指针。

如果要把该内容合并到当前分支,可以运行 git merge origin/serverfix。如果想要一份自己的 serverfix 来开发,可以在远程分支的基础上分化出一个新的分支来:

$ git checkout -b serverfix origin/serverfix Branch serverfix set up to track remote branch refs/remotes/origin/serverfix. Switched to a new branch "serverfix" 

这会切换到新建的 serverfix 本地分支,其内容同远程分支 origin/serverfix 一致,你可以在里面继续开发了。

跟踪分支

从远程分支检出的本地分支,称为跟踪分支(tracking branch)。跟踪分支是一种和远程分支有直接联系的本地分支。在跟踪分支里输入 git push,Git 会自行推断应该向哪个服务器的哪个分支推送数据。反过来,在这些分支里运行 git pull 会获取所有远程索引,并把它们的数据都合并到本地分支中来。

在克隆仓库时,Git 通常会自动创建一个 master 分支来跟踪 origin/master。这正是 git pushgit pull 一开始就能正常工作的原因。当然,你可以随心所欲地设定为其它跟踪分支,比如 origin 上除了 master 之外的其它分支。刚才我们已经看到了这样的一个例子:git checkout -b [分支名] [远程名]/[分支名]。如果你有 1.6.2 以上版本的 Git,还可以用 --track 选项简化:

$ git checkout --track origin/serverfix Branch serverfix set up to track remote branch refs/remotes/origin/serverfix. Switched to a new branch "serverfix" 

要为本地分支设定不同于远程分支的名字,只需在前个版本的命令里换个名字:

$ git checkout -b sf origin/serverfix Branch sf set up to track remote branch refs/remotes/origin/serverfix. Switched to a new branch "sf" 

现在你的本地分支 sf 会自动向 origin/serverfix 推送和抓取数据了。

删除远程分支

如果不再需要某个远程分支了,比如搞定了某个特性并把它合并进了远程的 master 分支(或任何其他存放稳定代码的地方),可以用这个非常无厘头的语法来删除它:git push [远程名] :[分支名]。如果想在服务器上删除 serverfix 分支,运行下面的命令:

$ git push origin :serverfix To git@github.com:schacon/simplegit.git - [deleted] serverfix ORG-LIST-END-MARKER 

咚!服务器上的分支没了。你最好特别留心这一页,因为你一定会用到那个命令,而且你很可能会忘掉它的语法。有种方便记忆这条命令的方法:记住我们不久前见过的 git push [远程名] [本地分支]:[远程分支] 语法,如果省略 [本地分支],那就等于是在说“在这里提取空白然后把它变成[远程分支]”。

衍合

把一个分支整合到另一个分支的办法有两种:merge(合并)rebase(衍合)。在本章我们会学习什么是衍合,如何使用衍合,为什么衍合操作如此富有魅力,以及我们应该在什么情况下使用衍合。

衍合基础

请回顾之前有关合并的一节(见图 3-27),你会看到开发进程分叉到两个不同分支,又各自提交了更新。

03-27
图 3-27. 最初分叉的提交历史。

之前介绍过,最容易的整合分支的方法是 merge 命令,它会把两个分支最新的快照(C3 和 C4)以及二者最新的共同祖先(C2)进行三方合并。如图 3-28 所示:

03-28
图 3-28. 通过合并一个分支来整合分叉了的历史。

其实,还有另外一个选择:你可以把在 C3 里产生的变化补丁重新在 C4 的基础上打一遍。在 Git 里,这种操作叫做衍合(rebase)。有了 rebase 命令,就可以把在一个分支里提交的改变在另一个分支里重放一遍。

在这个例子里,可以运行下面的命令:

$ git checkout experiment $ git rebase master First, rewinding head to replay your work on top of it... Applying: added staged command 

它的原理是回到两个分支(你所在的分支和你想要衍合进去的分支)的共同祖先,提取你所在分支每次提交时产生的差异(diff),把这些差异分别保存到临时文件里,然后从当前分支转换到你需要衍合入的分支,依序施用每一个差异补丁文件。图 3-29 演示了这一过程:

03-29
图 3-29. 把 C3 里产生的改变衍合到 C4 中。

现在,你可以回到 master 分支然后进行一次快进合并(见图 3-30):

03-30
图 3-30. master 分支的快进。

现在,合并后的 C3(即现在的 C3')所指的快照,同三方合并例子中的 C5 所指的快照内容一模一样了。最后整合得到的结果没有任何区别,但衍合能产生一个更为整洁的提交历史。如果视察一个衍合过的分支的历史记录,看起来更清楚:仿佛所有修改都是先后进行的,尽管实际上它们原来是同时发生的。

你可以经常使用衍合,确保在远程分支里的提交历史更清晰。比方说,某些项目自己不是维护者,但想帮点忙,就应该尽可能使用衍合:先在一个分支里进行开发,当准备向主项目提交补丁的时候,再把它衍合到 origin/master 里面。这样,维护者就不需要做任何整合工作,只需根据你提供的仓库地址作一次快进,或者采纳你提交的补丁。

请注意,合并结果中最后一次提交所指向的快照,无论是通过一次衍合还是一次三方合并,都是同样的快照内容,只是提交的历史不同罢了。衍合按照每行改变发生的次序重演发生的改变,而合并是把最终结果合在一起。

更多有趣的衍合

你还可以在衍合分支以外的地方衍合。以图 3-31 的历史为例。你创建了一个特性分支 server 来给服务器端代码添加一些功能,然后提交 C3 和 C4。然后从 C3 的地方再增加一个 client 分支来对客户端代码进行一些修改,提交 C8 和 C9。最后,又回到 server 分支提交了 C10。

03-31
图 3-31. 从一个特性分支里再分出一个特性分支的历史。

假设在接下来的一次软件发布中,你决定把客户端的修改先合并到主线中,而暂缓并入服务端软件的修改(因为还需要进一步测试)。你可以仅提取对客户端的改变(C8 和 C9),然后通过使用 git rebase--onto 选项来把它们在 master 分支上重演:

$ git rebase --onto master server client 

这基本上等于在说“检出 client 分支,找出 client 分支和 server 分支的共同祖先之后的变化,然后把它们在 master 上重演一遍”。是不是有点复杂?不过它的结果,如图 3-32 所示,非常酷:

03-32
图 3-32. 衍合一个特性分支上的另一个特性分支。

现在可以快进 master 分支了(见图 3-33):

$ git checkout master $ git merge client 

03-33
图 3-33. 快进 master 分支,使之包含 client 分支的变化。

现在你决定把 server 分支的变化也包含进来。可以直接把 server 分支衍合到 master 而不用手工转到 server 分支再衍合。git rebase [主分支] [特性分支] 命令会先检出特性分支 server,然后在主分支 master 上重演:

$ git rebase master server 

于是 server 的进度应用到 master 的基础上,如图 3-34:

03-34
图 3-34. 在 master 分支上衍合 server 分支。

然后快进主分支 master

$ git checkout master $ git merge server 

现在 clientserver 分支的变化都被整合了,不妨删掉它们,把你的提交历史变成图 3-35 的样子:

$ git branch -d client $ git branch -d server 

03-35
图 3-35. 最终的提交历史

衍合的风险

呃,奇妙的衍合也不是完美无缺的,一句话可以总结这点:

永远不要衍合那些已经推送到公共仓库的更新。

如果你遵循这条金科玉律,就不会出差错。否则,人民群众会仇恨你,你的朋友和家人也会嘲笑你,唾弃你。

在衍合的时候,实际上抛弃了一些现存的 commit 而创造了一些类似但不同的新 commit。如果你把commit 推送到某处然后其他人下载并在其基础上工作,然后你用 git rebase 重写了这些commit 再推送一次,你的合作者就不得不重新合并他们的工作,这样当你再次从他们那里获取内容的时候事情就会变得一团糟。

下面我们用一个实际例子来说明为什么公开的衍合会带来问题。假设你从一个中央服务器克隆然后在它的基础上搞了一些开发,提交历史类似图 3-36:

03-36
图 3-36. 克隆一个仓库,在其基础上工作一番。

现在,其他人进行了一些包含一次合并的工作(得到结果 C6),然后把它推送到了中央服务器。你获取了这些数据并把它们合并到你本地的开发进程里,让你的历史变成类似图 3-37 这样:

03-37
图 3-37. 获取更多提交,并入你的开发进程。

接下来,那个推送 C6 上来的人决定用衍合取代那次合并;他们用 git push --force 覆盖了服务器上的历史,得到 C4'。然后你再从服务器上获取更新:

03-38
图 3-38. 有人推送了衍合过的 C4',丢弃了你作为开发基础的 C6。

这时候,你需要再次合并这些内容,尽管之前已经做过一次了。衍合会改变这些 commit 的 SHA-1 校验值,这样 Git 会把它们当作新的 commit,然而这时候在你的提交历史早就有了 C4 的内容(见图 3-39):

03-39
图 3-39. 你把相同的内容又合并了一遍,生成一个新的提交 C8。

你迟早都是要并入其他协作者提交的内容的,这样才能保持同步。当你做完这些,你的提交历史里会同时包含 C4 和 C4',两者有着不同的 SHA-1 校验值,但却拥有一样的作者日期与提交说明,令人费解!更糟糕的是,当你把这样的历史推送到服务器,会再次把这些衍合的提交引入到中央服务器,进一步迷惑其他人。

如果把衍合当成一种在推送之前清理提交历史的手段,而且仅仅衍合那些永远不会公开的 commit,那就不会有任何问题。如果衍合那些已经公开的 commit,而与此同时其他人已经用这些 commit 进行了后续的开发工作,那你有得麻烦了。

小结

读到这里,你应该已经学会了如何创建分支并切换到新分支;在不同分支间转换;合并本地分支;把分支推送到共享服务器上,同世界分享;使用共享分支与他人协作;以及在分享之前进行衍合。

2 简单的 Git repository 建立

这里将要建立的是一个极为简单的 repository ,仅用于本地文件,如果需要建立可通过 ssh 或者 http 访问的 repository, 请自行 google 。

下面是简单的示例:

## Server side.
mkdir /tmp/test.git # Prepare directory for repository
cd  /tmp/test.git   # Enter to new directory
git init --bare     # Tell git to initiate a bare repository

## Client side

mkdir /tmp/test_clint
cd /tmp/test_client
git init
touch README
git add README
git remote add origin /tmp/test.git/
git push origin master

剩下的事情就简单了,参考 opengit 的介绍在本地随便建 branch 就可以了。

PS: 分支合并的时候,如果遇到不能自动解决的冲突, emacs 的 smerge-ediff 是个很不错的工具。

Footnotes:

 

ssh and public keys

2014年9月03日 00:08

以前在 这篇文章 中提过一次通过 public keys 实现 ssh 无密码登录, 其实在生成 public key 之后,*Nix 平台下可以直接用 ssh-copy-id 来完成剩余的过程。 如果是 windows 下,还是需要按照前面提到的方法来做,如果失败了,可能是 ~/.ssh 权限的问题。 需要将 .ssh 权限设置为 700, 或者在创建 .ssh 之前,先使用 umask:

umask 077; ~/.ssh || mkdir ~/.ssh;
 

rsync - exclude files and folders

2014年9月03日 00:08

rsync - exclude files and folders

rsync is cool. What would be even cooler would be excluding particular files or even a whole folder from the backup process.

That's no problem using the rsync '--exclude' option.


Why?

In the previous article, we looked at backing up files and folders to another server.

This was easily completed but there may well be some time sensitive files that are not needed such as log files. Sure, there are some log files (perhaps Apache logs) that you want to keep but others you won't such as a Ruby on Rails production log.

Perhaps there are files containing your DB password, such as a PHP mysqli connection file. Although needed on the main server, it is not needed on the backup.

A folder I always exclude when completing an rsync on my home folder is the 'sources' directory: I don't need copies of the source code I have download.

Let's see how to exclude that directory.

Single files and folders

The original command was like this:

rsync -e 'ssh -p 30000' -avl --delete --stats --progress demo@123.45.67.890:/home/demo /backup/

To exclude the sources directory we simply add the '--exclude' option:

--exclude 'sources'

Note: the directory path is relative to the folder you are backing up.

So looking at the original command, I am backing up /home/demo. Adding the name 'sources' to the exclude pattern will exclude the 'home/demo/sources' folder.

As such, the final command would look like this:

rsync -e 'ssh -p 30000' -avl --delete --stats --progress --exclude 'sources' demo@123.45.67.890:/home/demo /backup/

The same can be applied to files. I have decided that in addition to the sources folder, I want to exclude the file named 'database.txt' which resides in the public_html folder. So I add this:

--exclude 'public_html/database.txt'

So now the command looks like:

rsync -e 'ssh -p 30000' -avl --delete --stats --progress --exclude 'sources' --exclude 'public_html/database.txt' demo@123.45.67.890:/home/demo /backup/

Multiple files and folders

Unfortunately, I have a load of files and folders I don't want to backup and adding each one like that will get tedious very quickly.

Not only will it get boring, it will make the command super long and prone to easy mistakes.

That's OK as I can define all the files and folders I want exclude in a single file and have rsync read that.

To do this create a file called 'exclude.txt' on the destination machine (the system you give the rsync command on):

nano /home/backup/exclude.txt

Define

Then define the files and folders you want to exclude from the rsync:

sources public_html/database.* downloads/test/*

As you can see, you can define patterns.

The first entry is straight forward. It will exclude any file or folder called 'sources' (remember the path is relative).

The second entry will look int the public_html folder and exclude any files (or folders) that begin with 'database.'. The * at the end indicates a wild card, so 'public_html/database.txt' and 'public_html/database.yaml' will be excluded from the backup.

Using a wildcard, the final entry will exclude the contents of the 'downloads/test/' but still download the folder (in other words, I will end up with an empty 'test' folder).

Final command

Now we have defined what to exclude we can direct rsync to the file with:

--exclude-from '/home/backup/exclude.txt'

Note: the path for this file is absolute. You are defining where in the file system rsync should look for the exclude patterns.

So, this time the final command would be:

rsync -e 'ssh -p 30000' -avl --delete --stats --progress --exclude-from '/home/backup/exclude.txt' demo@123.45.67.890:/home/demo /backup/

That's better.

Summary

Excluding files from a backup can be time and space saver. They usually include superfluous downloads or files that contain sensitive information such as passwords that just don't need to be in several locations.

Using the exclude-from option allows for easy control over the exclude patterns - you can even define several exclude files and simply point rsync to the one that is convenient.

PickledOnion.

 

From http://articles.slicehost.com/2007/10/10/rsync-exclude-files-and-folders