2007년 10월 30일 화요일

[scrap] Understand 'single digit' RAID levels


[Source] Understand 'single digit' RAID levels by Scott Lowe Mar 31, 2006

Takeaway: Learn the pros and cons for RAID levels one through six and find out which levels are best for your specific storage needs.

Data is the lifeblood of many organizations and fast, reliable access to that data is critical in order to remain in business in today's "Internet-time" world. As such, most organizations make use of some level of RAID (Redundant Array of Independent/Inexpensive Disks) in order to maintain data integrity. Now—show of hands—how many of you are running your servers in a RAID 5 configuration because it's easy and seems like the best bet for your needs? While RAID 5 is a good bet in many instances, if you’re looking for raw write performance, you may benefit from some other RAID level. Now, how many of you, off the top of your head, can explain what RAID levels 10 and 50 are for? These newer, somewhat "invented" RAID levels can help to overcome some of RAID 5's drawbacks and still provide you with an ultra-redundant storage system. In this article, I’ll go over the pros and cons of the various levels of typical RAID levels. In my next article, I will discuss what are sometimes called "nested" RAID levels (i.e., RAID 10).


RAID 0 (Disk striping)

  • Drives required (minimum): 2
  • Max capacity: Number of disks x disk capacity
  • Description: Data to be written to the disk is broken down into blocks with each block written to a separate disk.
  • Pros: Very, very fast since data is written to and read from storage over multiple "spindles", meaning that the I/O load is distributed. The more disks that are added, the better the performance (in theory). As always, if you’re looking for huge performance gains, use a tool such as IOmeter to test your storage performance as the gains may not be that great.
  • Cons: When a single drive fails, the entire array can be compromised since this RAID level does not include any safeguards. As disks are added, the risk of failure increases.

RAID 1 (Disk mirroring)

  • Drives required (minimum): 2 (or multiples of 2)
  • Max capacity: Total array capacity divided by 2
  • Description: All data that is written to the storage system is replicated to two physical disks, providing a high level of redundancy.
  • Pros: Very reliable, assuming only a single disk per pair fails. RAID 1 tends to provide good read performance (equal to or better than a single drive).
  • Cons: Because each drive is mirrored to another, requires 100% disk overhead to operate. Write performance can sometimes suffer due to the need to write the data to two drives, but is often still better than write performance for other RAID levels.

RAID 2: This RAID level is no longer used.


RAID 3 (Parallel transfer disks with parity)

  • Drives required (minimum): 3
  • Max capacity: (Number of disks minus 1) x capacity of each disk
  • Description: Data is broken down to the byte level and evenly striped across all of the data disks until complete. All parity information is written to a separate, dedicated disk.
  • Pros: Tolerates the loss of a single drive. Reasonable sequential write performance. Good sequential read performance.
  • Cons: Rarely used, so troubleshooting information could be sparse. Requires hardware RAID to be truly viable. RAID 3 is generally considered to be very efficient. Poor random write performance. Fair random read performance.

RAID 4 (Independent data disks with shared parity blocks)

  • Max capacity: (Number of disks minus 1) x capacity of each disk
  • Description: A file is broken down into blocks and each block is written across multiple disks, but not necessarily evenly. Like RAID 3, RAID 4 uses a separate physical disk to handle parity. Excellent choice for environments in which read rate is critical for heavy transaction volume.
  • Drives required (minimum): 3
  • Pros: Very good read rate. Tolerates the loss of a single drive.
  • Cons: Write performance is poor. Block read performance is okay.

RAID 5 (Independent access array without rotating parity)

  • Max capacity: (Number of disks - 1) x capacity of each disk
  • Description: Like RAID 4, blocks of data are written across the entire set of disks (sometimes unevenly), but in this case, the parity information is interspersed with the rest of the data.
  • Drives required (minimum): 3
  • Pros: Well supported. Tolerates the loss of a single drive.
  • Cons: Performance during a rebuild can be quite poor. Write performance is sometimes only fair due to the need to constantly update parity information.

RAID 6 (Independent Data disks with two independent distributed parity schemes)

  • Max capacity: (Number of disks - 2) x capacity of each disk
  • Description: Like RAID 4, blocks of data are written across the entire set of disks (sometimes unevenly), but in this case, the parity information is interspersed with the rest of the data.
  • Drives required (minimum): 3
  • Pros: Tolerates the loss of up to two drives. Read performance is good. Excellent for absolutely critical applications.
  • Cons: Write performance is not very good. Write performance is worse than RAID 5 due to the need to update multiple parity sets. Performance can heavily degrade during a rebuild.


[한글 번역판] ZDNet Korea "RAID 1-6 레벨 이해하기"

2007년 10월 29일 월요일

JBD error message "barrier-based sync failed"

일반적으로 근래의 배포폰들은 처음 설치하면 Boot Splash는 silent로 설정이 된다.
이렇게 설정되면 예전의 text가 주루룩 흘러내려가는 Boot screen은 보여주지 않고 MS Windows처럼
Bootlogo가 보여지게 된다.
내 개인적으로는 이러한 형태의 silent boot를 전혀 좋아하지 않는다.
우선은 Booting 과정에서의 문제를 전혀 파악할 수 없고(사실 이 부분은 최근의 System들이 너무 성능이
좋아지는 바람에 바람과 같은 속도로 주주룩 지나가는 내용을 보고서 정확한 문제를 파악하는 것은
불가능하기는 하다. 어차피 Booting 완료 후 Log를 봐야만 정확한 내용을 알 수 있다.)
Bootlogo를 보고 있으면 Booting 시간이 지루하게 느껴진다는 점 때문이다.
그래서 항상 Boot Splash는 verbose로 설정한다.
나름대로 구세대 Linuxer라서인지 Boot text가 흘러내려가는 화면이어야만 제대로 Linux가
Boot되고 있다는 느낌이 들어서 좋다.
최근에 특별한 원인을 알 수 없는 System 이상으로 Desktop에 Linux를 두 번이나 새로이 설치해야만 했다.
여러 증상들로 보아 노후한 Hardware들로 인한 문제들인 것 같기는 한데 Diagnostic Tool이나
Testing Tool들을
돌리면  별다른 문제가 발견되지가 않으니 골치가 아프다.
분명히 문제가 있는데 찾아낼 수가 없으니 말이다.

결국 마지막에는 두 개의 Harddisk 중 OS가 위치하는 것을 Low-level Format하고
OpenSuSE에서 지원하는 RAID-1(Mirroring)을 이용하여 설치하였다.

Mirroring을 위해 Disk 공간을 두 배로 할당하는 희생을 치른 결과 앞에 설치했던 경우보다는
안정적으로 돌아가게 되긴 했지만 아직도 가끔 System이 멈춰 버리는 일이 있다.

다수의 Harddisk를 이용한 제대로 된 RAID를 구성한 것이 아니라서 그런가보다 생각하지만
현재로서는 Harddisk 두 개를 완전히 비울 수 있는 여건이 되지가 않는다.
근본적인 원인이 Hardware에 있다는 믿음은 있지만
일단 OS차원에서도 문제가 있어서는 안되겠기에 지속적으로
Boot message를 점검하고 있다.
사소한 문제들은 간단히 Service를 제거하는 정도의 조작으로 해결이 되었지만
잘 모르는 내용의 Error가 여전히 있었다.

JBD error message "barrier-based sync failed" 라는 것이었다.
File System을 check하는 부분에서 나온 것 같아 검색을 해보니
novell support page에 해결법이 나와 있었다.

more..



[Related Article]
2007/02/16 - [Linux] - [scrap] 리눅스 부팅
2007/08/24 - [Linux] - Hardware Monitoring Tools for Linux


2007년 10월 28일 일요일

[OpenSuSE 10.2] Latest Nvidia Driver Intallation


[Source] Nvidia Installer HOWTO for SUSE LINUX users

People who aren't afraid of recompiling the nvidia kernel module
or even reinstalling the nvidia driver each time the kernel has been updated
and want or need to use the latest and greatest nvidia driver
can use the following steps 1-3.
The others should use the instructions above using YaST and skip the steps below.

1) Kernel sources must be installed and configured.
Usually this means installing the 'kernel-source', 'make' and 'gcc' packages with YaST2.

2) Use the nvidia installer for 100.14.19.

3) Configure X.Org with
sax2 -r -m 0=nvidia (0 is a digit, not a letter!)

NOTE: There is no need to try to enable 3D support.
It's already enabled, when the nvidia driver is running.
IMPORTANT: You need to
recompile and install the nvidia kernel module after each kernel update.
sh NVIDIA-Linux-x86-100.14.19-pkg1.run -K

2007년 10월 24일 수요일

코멘트와 트랙백 승인해제

빈대 한마리 잡으려다 초가삼간을 다 태운다는 속담이 있다.

오늘 okto님의 코멘트를 승인하다 불현듯 이 속담이 떠올랐다.

코멘트를 달아주시는 몇 안되는 분들께 무례한 조치라는 생각이 들었다.

손님이라 할 것도 없는 방문자가 작성한 댓글을 보여지기 전에 차단할 수 있다는 장점이 있지만

이 또한 나중에 삭제해도 충분한 일이다.

2007년 10월 22일 월요일

[cisco.com] Understanding TCP/IP


출처: www.cisco.com
Download : Understanding TCP/IPUnderstanding TCP/IP

Understanding TCP/IP

Introduction

To fully understand the architecture of Cisco Centri Firewall, you need to understand the TCP/IP architecture on which the Internet is based. This appendix discusses the TCP/IP architecture and provides a basic reference model that can help you understand how Cisco Centri Firewall operates. It explains TCP/IP terminology and describes the fundamental concepts underlying the TCP/IP protocol suite. We begin by providing a common frame of reference to use as a basis for the rest of the discussion contained in this appendix on TCP/IP and Cisco Centri Firewall.

What is an Architectural Model?

An architectural model provides a common frame of reference for discussing Internet communications. It is used not only to explain communication protocols but to develop them as well. It separates the functions performed by communication protocols into manageable layers stacked on top of each other. Each layer in the stack performs a specific function in the process of communicating over a network.

Generally, TCP/IP is described using three to five functional layers. To describe TCP/IP based firewalls more precisely, we have chosen the common DoD reference model, which is also known as the Internet reference model. Figure A-1 illustrates the Internet reference model.

Figure A-1: The DoD Protocol Model

This model is based on the three layers defined for the DoD Protocol Model in the DDN Protocol Handbook, Volume 1. These three layers are as follows:

  • network access layer

  • host-to-host transport layer

  • application layer

An additional layer, the internetwork layer, has been added to this model. The internetwork layer is commonly used to describe TCP/IP. The following section explains how network protocols work, and it defines the basic terminology that we use to discuss TCP/IP and Cisco Centri Firewall.

Another standard architectural model that is often used to describe a network protocol stack is the OSI reference model. This model consists of a seven layer protocol stack (see Figure A-2).

Figure A-2: The OSI Protocol Reference Model

No additional information or explanation for this reference model will be included within this guide because very few firewalls implement this model. For additional information on this reference model consult Chapman, D. B., and Elizabeth D. Zurichy, Building Internet Firewalls, Sebastopol:O'Reilly & Associates, Inc., September 1995. (See Appendix B.) or Heywood, D., Networking with Microsoft TCP/IP, Indianapolis: New Riders Publishing, 1996. (See Chapter 1.)

Understanding Architectural Models and Protocols

In an architectural model, a layer does not define a single protocol—it defines a data communication function that may be performed by any number of protocols. Because each layer defines a function, it can contain multiple protocols, each of which provides a service suitable to the function of that layer.

Every protocol communicates with its peer. A peer is an implementation of the same protocol in the equivalent layer on a remote computer. Peer-level communications are standardized to ensure that successful communications take place. Theoretically, each protocol is only concerned with communicating to its peer—it does not care about the layers above or below it.

A dependency, however, exists between the layers. Because every layer is involved in sending data from a local application to an equivalent remote application, the layers must agree on how to pass data between themselves on a single computer. The upper layers rely on the lower layers to transfer the data across the underlying network.

How a Protocol Stack Works

As the reference model indicates, protocols (which compose the various layers) are like a pile of building blocks stacked one upon another. Because of this structure, groups of related protocols are often called stacksprotocol stacks. or

Data is passed down the stack from one layer to the next, until it is transmitted over the network by the network access layer protocols. The four layers in this reference model are crafted to distinguish between the different ways that the data is handled as it passes down the protocol stack from the application layer to the underlying physical network.

At the remote end, the data is passed up the stack to the receiving application. The individual layers do not need to know how the layers above or below them function; they only need to know how to pass data to them.

Each layer in the stack adds control information (such as destination address, routing controls, and checksum) to ensure proper delivery. This control information is called a header and/or a trailer because it is placed in front of or behind the data to be transmitted. Each layer treats all of the information that it receives from the layer above it as data, and it places its own header and/or trailer around that information.

These wrapped messages are then passed into the layer below along with additional control information, some of which may be forwarded or derived from the higher layer. By the time a message exits the system on a physical link (such as a wire), the original message is enveloped in multiple, nested wrappers—one for each layer of protocol through which the data passed. When a protocol uses headers or trailers to package the data from another protocol, the process is called encapsulation. This process is illustrated in Figure A-3.

Figure A-3: Encapsulation of Data for Network Delivery

When data is received, the opposite happens. Each layer strips off its header and/or trailer before passing the data up to the layer above. As information flows back up the stack, information received from a lower layer is interpreted as both a header/trailer and data. The process of removing headers and trailers from data is called decapsulation. This mechanism enables each layer in the transmitting computer to communicate with its corresponding layer in the receiving computer. Each layer in the transmitting computer communicates with its peer layer in the receiving computer via a process called peer-to-peer communication.

Each layer has specific responsibilities and specific rules for carrying out those responsibilities, and it knows nothing about the procedures that the other layers follow. A layer carries out its tasks and delivers the message to the next layer in the protocol stack. An address mechanism is the common element that allows data to be routed through the various layers until it reaches its destination.

Each layer also has its own independent data structures. Conceptually, a layer is unaware of the data structures used by the layers above and below it. In reality, the data structures of a layer are designed to be compatible with the structures used by the surrounding layers for the sake of more efficient data transmission. Still, each layer has its own data structures and its own terminology to describe those structures.

The following section describes the Internet reference model in more detail. We will use this reference model throughout this guide to describe the structure and function of the TCP/IP protocol suite and Cisco Centri Firewall.

Understanding the Internet Reference Model

As mentioned earlier, the Internet reference model contains four layers: the network access layer, the internetwork layer, the host-to-host transport layer, and the application layer.

In the following sections, we describe the function of each layer in more detail, starting with the network access layer and working our way up to the application layer.

Network Access Layer

The network access layer is the lowest layer in the Internet reference model. This layer contains the protocols that the computer uses to deliver data to the other computers and devices that are attached to the network. The protocols at this layer perform three distinct functions:

  • They define how to use the network to transmit a frame, which is the data unit passed across the physical connection.

  • They exchange data between the computer and the physical network.

  • They deliver data between two devices on the same network. To deliver data on the local network, the network access layer protocols use the physical addresses of the nodes on the network. A physical address is stored in the network adapter card of a computer or other device, and it is a value that is "hardcoded" into the adapter card by the manufacturer.

Unlike higher level protocols, the network access layer protocols must understand the details of the underlying physical network, such as the packet structure, maximum frame size, and the physical address scheme that is used. Understanding the details and constraints of the physical network ensures that these protocols can format the data correctly so that it can be transmitted across the network.

Internetwork Layer

In the Internet reference model, the layer above the network access layer is called the internetwork layer. This layer is responsible for routing messages through internetworks. Two types of devices are responsible for routing messages between networks. The first device is called a gateway, which is a computer that has two network adapter cards. This computer accepts network packets from one network on one network card and routes those packets to a different network via the second network adapter card. The second device is a router, which is a dedicated hardware device that passes packets from one network to a different network. These two terms are often used interchangeably, but distinct differences exist in their ability to route packets and their roles within Cisco Centri Firewall.

The internetwork layer protocols provide a datagram network service. Datagrams are packets of information that comprise a header, data, and a trailer. The header contains information, such as the destination address, that the network needs to route the datagram. A header can also contain other information, such as the source address and security labels. Trailers typically contain a checksum value, which is used to ensure that the data is not modified in transit.

The communicating entities—which can be computers, operating systems, programs, processes, or people—that use the datagram services must specify the destination address (using control information) and the data for each message to be transmitted. The internetwork layer protocols package the message in a datagram and send it off.

A datagram service does not support any concept of a session or connection. Once a message is sent or received, the service retains no memory of the entity with which it was communicating. If such a memory is needed, the protocols in the host-to-host transport layer maintain it. The abilities to retransmit data and check it for errors are minimal or nonexistent in the datagram services. If the receiving datagram service detects a transmission error during transmission using the checksum value of the datagram, it simply ignores (or drops) the datagram without notifying the receiving higher-layer entity.

Host-to-Host Transport Layer

The protocol layer just above the internetwork layer is the host-to-host transport layer. It is responsible for providing end-to-end data integrity and provides a highly reliable communication service for entities that want to carry out an extended two-way conversation.

In addition to the usual transmit and receive functions, the host-to-host transport layer uses open and closestream of characters, and it returns information to the recipient as a stream. commands to initiate and terminate the connection. This layer accepts information to be transmitted as a

The service employs the concept of a connection (or virtual circuit). A connection is the state of the host-to-host transport layer between the time that an open command is accepted by the receiving computer and the time that the close command is issued by either computer.

Application Layer

The top layer in the Internet reference model is the application layer. This layer provides functions for users or their programs, and it is highly specific to the application being performed. It provides the services that user applications use to communicate over the network, and it is the layer in which user-access network processes reside. These processes include all of those that users interact with directly, as well as other processes of which the users are not aware.

This layer includes all applications protocols that use the host-to-host transport protocols to deliver data. Other functions that process user data, such as data encryption and decryption and compression and decompression, can also reside at the application layer.

The application layer also manages the sessions (connections) between cooperating applications. In the TCP/IP protocol hierarchy, sessions are not identifiable as a separate layer, and these functions are performed by the host-to-host transport layer. Instead of using the term "session," TCP/IP uses the terms "socket" and "port" to describe the path (or virtual circuit) over which cooperating applications communicate. However, in describing Cisco Centri Firewall, we do distinguish between sessions and ports. A session is a connection over a TCP or UDP port that is made between two computers, either one of which is protected by Cisco Centri Firewall.

Most of the application protocols in this layer provide user services, and new user services are added often. For cooperating applications to be able to exchange data, they must agree about how data is represented. The application layer is responsible for standardizing the presentation of data.


In the following section, we provide a history of TCP/IP and then define the TCP/IP protocol suite using the Internet reference model.

What is TCP/IP?

The name TCP/IP refers to a suite of data communication protocols. The name is misleading because TCP and IP are only two of dozens of protocols that compose the suite. Its name comes from two of the more important protocols in the suite: the Transmission Control Protocol (TCP) and the Internet Protocol (IP).

TCP/IP originated out of the investigative research into networking protocols that the Department of Defense (DoD) initiated in 1969. In 1968, the DoD Advanced Research Projects Agency (ARPA) began researching the network technology that is now called packet switching.

The original focus of this research was to facilitate communication among the DoD community. However, the network that was initially constructed as a result of this research, then called ARPANET, gradually became known as the Internet. The TCP/IP protocols played an important role in the development of the Internet. In the early 1980s, the TCP/IP protocols were developed. In 1983, they became standard protocols for ARPANET.

Because of the history of the TCP/IP protocol suite, it is often referred to as the DoD protocol suite or the Internet protocol suite.

How TCP/IP Works

In this section, we describe some of the protocols that compose TCP/IP using the Internet reference model. We also define the function of each protocol and define terms that are specific to TCP/IP.

Network Access Layer

The design of TCP/IP hides the function of this layer from users—it is concerned with getting data across a specific type of physical network (such as Ethernet, Token Ring, etc.). This design reduces the need to rewrite higher levels of a TCP/IP stack when new physical network technologies are introduced (such as ATM and Frame Relay).

The functions performed at this level include encapsulating the IP datagrams into frames that are transmitted by the network. It also maps the IP addresses to the physical addresses used by the network. One of the strengths of TCP/IP is its addressing scheme, which uniquely identifies every computer on the network. This IP address must be converted into whatever address is appropriate for the physical network over which the datagram is transmitted.

Data to be transmitted is received from the internetwork layer. The network access layer is responsible for routing and must add its routing information to the data. The network access layer information is added in the form of a header, which is appended to the beginning of the data.

In Windows NT, the protocols in this layer appear as NDIS drivers and related programs. The modules that are identified with network device names usually encapsulate and deliver the data to the network, while separate programs perform related functions such as address mapping.

Internetwork Layer

The best known TCP/IP protocol at the internetwork layer is the Internet Protocol (IP), which provides the basic packet delivery service for all TCP/IP networks. In addition to the physical node addresses used at the network access layer, the IP protocol implements a system of logical host addresses called IP addresses. The IP addresses are used by the internetwork and higher layers to identify devices and to perform internetwork routing. The Address Resolution Protocol (ARP) enables IP to identify the physical address that matches a given IP address.

IP is used by all protocols in the layers above and below it to deliver data, which means all TCP/IP data flows through IP when it is sent and received, regardless of its final destination.

Internet Protocol

IP is a connectionless protocol, which means that IP does not exchange control information (called a handshake) to establish an end-to-end connection before transmitting data. In contrast, a connection-oriented protocol exchanges control information with the remote computer to verify that it is ready to receive data before sending it. When the handshaking is successful, the computers are said to have established a connection. IP relies on protocols in other layers to establish the connection if connection-oriented services are required.

IP also relies on protocols in another layer to provide error detection and error recovery. Because it contains no error detection or recovery code, IP is sometimes called an unreliable protocol.

The functions performed at this layer are as follows:

  Each type of network has a maximum transmission unit (MTU), which is the largest packet it can transfer. If the datagram received from one network is longer than the other network's MTU, it is necessary to divide the datagram into smaller fragments for transmission. This division process is called fragmentation.

Internet Control Message Protocol

The Internet Control Message Protocol (ICMP) is part of the internetwork layer and uses the IP datagram delivery facility to send its messages. ICMP sends messages that perform the following control, error reporting, and informational functions for the TCP/IP protocol suite:

Host-to-Host Transport Layer

The protocol layer just above the internetwork layer is the host-to-host layer. It is responsible for end-to-end data integrity. The two most important protocols employed at this layer are the Transmission Control ProtocolUser Datagram Protocol (UDP). (TCP) and

TCP provides reliable, full-duplex connections and reliable service by ensuring that data is resubmitted when transmission results in an error (end-to-end error detection and correction). Also, TCP enables hosts to maintain multiple, simultaneous connections. When error correction is not required, UDP provides unreliable datagram service (connectionless) that enhances network throughput at the host-to-host transport layer.

Both protocols deliver data between the application layer and the internetwork layer. Applications programmers can choose the service that is most appropriate for their specific applications.

User Datagram Protocol

The User Datagram Protocol gives application programs direct access to a datagram delivery service, like the delivery service that IP provides. This direct access allows applications to exchange messages over the network with a minimum of protocol overhead.

UDP is an unreliable, connectionless datagram protocol. "Unreliable" merely means that the protocol has no technique for verifying that the data reached the other end of the network correctly. Within your computer, UDP will deliver data correctly.

Why do applications programmers choose UDP as a data transport service? A number of good reasons exist. If the amount of data being transmitted is small, the overhead of creating connections and ensuring reliable delivery may be greater than the work of retransmitting the entire data set. In this case, UDP is the most efficient choice for a host-to-host transport layer protocol.

Applications that fit a "query-response" model are also excellent candidates for using UDP. The response can be used as a positive acknowledgment to the query. If a response is not received within a certain time period, the application just sends another query. Still other applications provide their own techniques for reliable data delivery and do not require that service from the transport layer protocol. Imposing another layer of acknowledgment on any of these types of applications is redundant.

Transmission Control Protocol

Applications that require the host-to-host transport protocol to provide reliable data delivery use TCP because it verifies that data is delivered across the network accurately and in the proper sequence. TCP is a reliable, connection-oriented, byte-stream protocol.

Application Layer

The most widely known and implemented TCP/IP application layer protocols are listed below:

  • File Transfer Protocol (FTP). Performs basic interactive file transfers between hosts.

  • Telnet. Enables users to execute terminal sessions with remote hosts.

  • Simple Mail Transfer Protocol (SMTP). Supports basic message delivery services.

  • HyperText Transfer Protocol (HTTP). Supports the low-overhead transport of files consisting of a mixture of text and graphics. It uses a stateless, connection- and object-oriented protocol with simple commands that support selection and transport of objects between the client and the server.

In addition to widely known protocols, the application layer includes the following protocols:

  • Domain Name Service (DNS). Also called name service; this application maps IP addresses to the names assigned to network devices.

  • Routing Information Protocol (RIP). Routing is central to the way TCP/IP works. RIP is used by network devices to exchange routing information.

  • Simple Network Management Protocol (SNMP). A protocol that is used to collect management information from network devices.

  • Network File System (NFS). A system developed by Sun Microsystems that enables computers to mount drives on remote hosts and operate them as if they were local drives.

Some protocols, such as Telnet and FTP, can only be used if the user has some knowledge of the network. Other protocols, like RIP, run without the user even knowing that they exist.

Throughout this guide, we describe how Cisco Centri Firewall allows you to control access to these application layer protocols. This basic description of TCP/IP and the Internet reference model given in this appendix provides a basis for understanding what it is that Cisco Centri Firewall does and how it does it.


[Related Postings]

2007/04/12 - [Network] - OSI 7 layer와 TCP/IP
2007/07/28 - [Network] - [Scrap] 네트워크 개념과 동작 원리
2007/09/28 - [Network/Link for Network] - [Link] TCP/IP Network Basics / Cisco Routing
2007/09/28 - [Network/Link for Network] - [Link] TCP/IP의 이해(IP Address & Subnet)

2007년 10월 21일 일요일

OSI 7 layer와 TCP/IP

from Network Club NETSARANG

OSI 7 layer와 TCP/IP



사용자 삽입 이미지

OSI & TCP/IP Model


(drawn by jvm) Link된 문서에 나와있는 그림인데 오타가 있어서 MS Visio를 이용하여 새로 그렸다.

2007년 10월 14일 일요일

[Tip] Google CSE를 이용해 블로그 내부검색하기

사람의 기억력이란 한계가 있는 법이어서 자신이 작성한 글이 어렵풋이만 생각이 날 때가 많이 있으므로
블로그에 글이 많이 쌓이다보면 블로그 내부검색 기능은 꼭 필요한 기능 중 하나이다.
티스토리나 태터툴스와 같은 경우는 자체 내부검색 기능이 제공되므로 편리하다.
그렇지만 친구들의 블로그를 함께 검색하고 싶다거나,
내부검색 기능이 부족한 서비스형 블로그를 사용하고 있다면 Google CSE 서비스가 참 유용하다.

QAOS.com의 DoA님의 Tip(구글 맞춤검색(CSE: Custom Search Engine) 활용하기)을 이용하면
CSE를 이용하여 블로그의 검색기능을 몇배나 강화할 수 있다.

친구 블로그 검색이나 검색결과의 라벨링과 같은 더 나은 기능을 활용하기 위하여
이 블로그도 위의 Tip에 따라 티스토리의 검색창을 CSE 검책창으로 대치하였다.

조인스 블로그에 있는 송원섭의 피라미드에 자주 들리는 편이다.
그곳의 주인장께서 자체적으로 지원되지 않는 블로그 내부검색 기능의 부재를 아쉬워하셔서
Google CSE를 이용하는 방안을 궁리해보았다.

결론적으로 나의 지식으로는 조인스 블로그에 Google CSE의 검색창을 달도록 할 방법을 찾지 못했다.
그렇다고 해도 서비스 자체를 이용할 수 없는 것은 아니므로 다음의 Tip을 작성하였다.
구글 CSE를 이용하여 자신의 블로그 검색하기

2007년 10월 11일 목요일

[Scrap] 네트워크 개념과 동작 원리

ZDNet Korea
이우영 (KT)   2005/03/25
원본출처

네트워크 디자이너가 되기 위한 첫 번째 시간에는 기본적인 인터네트워킹 디자인을 위한 네트워크의 기본 개념과 모델, 데이터 전송 방법 등을 설명하겠습니다. 노드와 링크가 조합을 이루고 그 조합을 통해 메시지가 전해지는 과정을 하나하나 자세하게 살펴보겠습니다.

네트워크는 노드(Nodes)와 링크(Link)의 조합입니다. 이러한 네트워크를 통해서 다양한 형태의 메시지를 전송하는 것이 통신(Communication)입니다. 네트워크 디자이너들은 이러한 조합을 통하여 전송 효율(Efficiency)을 최대한 높이는 데이터 전송망을 설계하는 사람들입니다.

그렇다면 네트워크 디자이너들은 무엇을 어떻게 이용하여 네트워크를 설계할까요? 그들은 보다 효율적인 네트워크 설계를 위하여 상황에 맞는 다양한 연장을 사용합니다. 때로는 수학적인 툴을 사용하기도 하고 때로는 소프트웨어 시뮬레이션과 같은 방법을 사용하여 시각적인 구현과 평가를 하기도 합니다.

독자들은 그동안 어떤 방법으로 네트워크를 구성하고 평가해 보았습니까? 이제 막 네트워크에 입문하는 중이라면 어떤 방법을 상상해 봤습니까? 저는 3회에 걸친 연재를 통하여 네트워크 디자이너가 특정한 업체의 디바이스를 얼마나 유효적절하게 사용하기 위한 사람이라는 정의가 매우 소극적인 것이라는 것을 얘기하고 싶습니다. 네트워크 디자이너는 소극적인 정의에 더하여 필요에 따라 알맞은 형태의 네트워크 디바이스들을 창조적으로 디자인할 수 있는 사람이어야 합니다.

랜카드, 라우터, 브리지(Bridge) 등의 네트워크 장치들을 필요에 따라 설계하고 만들어 낼 수 있는 네트워크 디자이너가 많아야지만 대한민국이 진정한 IT 강국으로서의 면모를 세계 속에 나타낼 수 있을 것입니다. 필자 또한 이러한 목표를 더욱 견고히 하는 계기로 삼고 네트워크에 관한 입문 이야기를 써내려가려고 합니다. 독자 여러분들도 ‘why’와 ‘how’를 생각하면서 읽어준다면 좋겠습니다.

생활 속의 네트워크
여러분은 현실에서 본인만의 네트워크를 설계해 본 적이 있습니까? 필자는 오늘 오전 제품 계약에 관한 업무를 수행하기 위해서 전세계에 지사가 있는 유명 택배회사를 통하여 중요한 서류를 미국 텍사스 달라스에 위치한 장비회사로 보냈습니다. 우선 작성한 서류를 본인이 다니는 회사 봉투에 넣고 택배회사 직원에게 전화로 연락하였습니다. 택배회사 직원이 사무실을 찾아와 준비해온 택배회사 봉투에 서류를 넣고 보내는 사람과 받는 사람의 주소를 기재하였습니다. 마지막으로 택배회사의 해외서비스 분류 방법에 기준하여 봉투에 고유 코드를 붙였습니다.

저는 이틀 이내에 제 서류가 장비회사에 전달되어야 한다고 요청하였고 택배회사 직원은 이 모든 것에 대한 가격을 책정해 지불하여 계약서류를 목적지로 보내는 일을 마무리하였습니다. 자 그럼 이 서류가 이제 어떻게 미국 텍사스 달라스에 위치한 회사로 전달될지 상상해 보겠습니까?

서류는 서울 사무소를 거쳐서 인천공항 지역에 위치한 택배회사의 분류창고로 옮겨 질 것입니다. 제가 이틀이라는 시간적인 제한을 요청하였기 때문에 제 서류는 특별하게 관리되어 아메리카 지역 구분으로 나뉘어있는 방으로 보내어 질 것입니다. 그리고 다시 미국 분류 상자 안으로 옮겨져 가장 빠른 비행기 편으로 미국 LA의 택배회사 창고에 도착할 것입니다.

다시 필자의 서류는 텍사스를 향하는 비행기로 옮겨지고 달라스에서 기다리고 있는 직원에 의해 마지막으로 세부 분류되어 필자의 회사와 계약을 체결하려고 기다리고 있는 업무 담당자의 손에 전해 질 것입니다. 택배회사는 담당자의 수신확인서를 이메일을 통해 저에게 전달해 줄 것입니다. 여러분도 이와 같은 경험을 해본 적이 있나요?

오늘 저는 보내는 사람(Source Node)과 받는 사람(Destination Node)이 노드가 되어 시간과 비용을 고려한 해외 택배 서비스(link)를 통하여 네트워크를 경험해본 것입니다. 이렇게 네트워크는 우리 생활 속에 있으며 또한 긴 역사를 가지고 있습니다. 단지 요즘 우리가 봇물처럼 터지는 노드와 노드의 전기적인 연결에 노출되어 이제서야 네트워크 세상 속에 사는 것처럼 느낄 뿐입니다. 마치 혁명과 같이 세상의 매일을 변화시키는 컴퓨터 노드와 노드의 링크, 네트워크. 짧은 인터넷의 역사와 함께 되짚어 보겠습니다.

인터넷의 역사
인터넷은 데이터 통신과 컴퓨터 네트워킹을 위한 수많은 새로운 통신규약(Protocol)과 기술들을 출현시켰습니다. 이러한 출현은 이제 너무나 일반적인 용어가 되어버린 월드 와이드 웹의 촉매 역할로 인해 그야말로 폭발적인 위력을 발휘하고 있습니다. 병상에 갇혀있는 환자에게 세상으로 연결되는 창을 주었으며 우주정복을 꿈꾸는 시골 소년에게 미국 항공 우주국(NASA)의 화성 프로젝트에 참여하는 우주인과의 대화를 가능하게 하였습니다.

인터넷의 기원은 거슬러 올라가 1969년 미국에서 시작되었던 알파넷(ARPANET) 과제에서 비롯됩니다. 알파넷은 미 국방성(Department of Defense)의 ‘Advanced Research Projects Agency’라는 이름으로 패킷 스위칭 기법을 이용하여 겨우 4개의 노드를 단지 50kbps로 연결하여 전송하는 네트워크의 설계와 구현으로 시작하였습니다(여러분은 3회의 연재에서 4개 혹은 그 이상의 노드를 연결하는 시뮬레이션을 해보게 될 것입니다).

이러한 알파넷은 텔넷과 FTP, 그리고 네트워크의 첫 번째 킬러 app이었던 전자메일을 통해 크게 발전하는 계기가 되었고 미국의 기관, 학교, 국가단체를 거쳐 세계로 연구와 개발이 확장되었고 드디어는 TCP/IP(1980), WWW(1991), Mosaic(1992), OC-3(155Mbps) Backbone(1996) 등 지금은 정확하게 셀 수도 없는 웹 페이지들이 인터넷에 올려져 있습니다.

<그림 1> 100개의 노드와 5만개의 노드 topology 비교

<그림 1>은 필자의 은사였던 헬미(Helmy) 교수의 강의 노트에서 따 온 것입니다. 왼쪽 그림은 100개의 노드로 이루어진 네트워크망을 디자인 해본 그림입니다. 오른쪽 그림은 자동 시뮬레이션 프로그램을 이용해서 왼쪽 디자인의 100개의 노드를 확장하여 5만여개의 노드가 연결되어 있는 인터넷 지도를 나타내 본 것입니다. 어떤 느낌이 드나요?

이 두 그림으로 인터넷이 얼마나 짧은 시간에 크게 확대되었는지 실감할 수 있을 것입니다. 이 모든 것이 처음에 말한 대로 두 개의 노드와 하나의 링크로 시작되었던 것입니다. 자 그럼 이제 두개의 노드와 그 링크가 어떠한 구조를 각각 가지고 있으며 어떠한 방법으로 데이터를 주고받고 있는지 좀 더 자세히 살펴보도록 하겠습니다.

네트워크 모델
일반적으로 통신은 애플리케이션, 컴퓨터, 네트워크의 세 개의 에이전트를 사용하고 있습니다. 애플리케이션이라고 하면 우리가 매일 사용하는 전자메일, 파일 다운로드 등과 같은 것을 말합니다. 이러한 애플리케이션들은 컴퓨터에서 수행됩니다. 또한 컴퓨터들은 네트워크에 연결되어서 서로 간에 네트워크를 통해 데이터를 보내기도 하고 받기도 하는 것입니다.

다양한 형태의 메시지를 노드와 링크로 주고받는 네트워크는 어떠한 방법으로 보내는 사람으로부터 전하는 사람을 지나서 받는 사람에게 전해질까요? 네트워크는 이러한 문제를 해결하기 위해 공통된 프로토콜을 정의하여 기능을 부가하고 컴퓨터 통신을 위한 연구 개발에 표준으로 삼기로 했습니다.

그렇다면 프로토콜이란 무엇일까요? 프로토콜의 사전적 정의는 협안, 조약안이지만 컴퓨터 통신에서는 2대 이상의 컴퓨터 통신을 위한 통신 규약이라고 말하고 있습니다. 사용하는 언어가 다른 사람들이 모여 높은 탑을 쌓는 공사를 하고 있을 때 표준으로 사용하는 언어(Protocol)와 단계(Procedure)가 없다면 어렵게 쌓아가고 있던 탑이 무너지고 말겠죠.

많은 기업과 학교, 그리고 과학, 공학, 국가단체들은 효율성과 사업모델, 이해관계를 놓고 오랫동안의 연구개발과 협의를 통하여 컴퓨터 통신의 표준을 정하고 있습니다. 이러한 방법으로 정형화된 컴퓨터 네트워크 프로토콜 중에 ISO(International Organization for Standardization)에서 개발된 OSI(Open System Interconnection) 모델이 있습니다. 하지만 7개의 계층으로 구성된 OSI 모델은 각 층간의 기능이 유사한 면이 있다는 단점이 있어 좀 더 명확한 기능과 단순한 계층을 갖고 있는 TCP/IP 프로토콜이 출현하게 되었습니다.

<그림 2> OSI와 TCP/IP 모델

OSI 모델
1978년 제작 초기 당시에만 해도 많은 OSI 디자이너들은 컴퓨터 네트워크에 이 모델이 가장 널리 사용되리라는 데 의문을 갖지 않았습니다. 결과적으로는 OSI 모델은 TCP/IP에 의해서 대체되고 말았지만 이러한 시도를 통해서 많은 유용한 프로토콜들이 개발되었고 7개의 계층으로 나뉘어 설계되었던 기능들은 다른 형태지만 아직도 같은 기능으로 존재하고 있습니다.

<그림 2>의 왼쪽 모델은 7개의 계층으로 구성된 OSI 모델입니다. 흔히 물리 계층(Physical Layer)에서 네트워크 계층(Network Layer)까지를 하위 계층 프로토콜이라고 하며 트랜스미션 계층(Transmission Layer)에서 애플리케이션 계층(Application Layer)까지를 상위 계층 프로토콜이라고 합니다.

7개의 계층 중에서 가장 위에 위치한 애플리케이션 계층은 사용자들이 OSI 환경을 액세스할 수 있도록 해줍니다. 그러기 위해 애플리케이션 계층은 사용자가 통신에 사용할 프로토콜 타입을 결정합니다. 여러 가지 애플리케이션에 따라 파일전송, 데이터베이스 접근, 전자메일 서비스에 맞는 프로토콜을 제공합니다. 그 다음 단계인 프리젠테이션 계층(Presentation Layer)은 애플리케이션 계층으로부터 전해진 다양한 데이터 타입을 전송 형식과 무관한 구문(syntax)의 형태로 변환하고 암호화(Encryption)하는 기능을 수행합니다.

세션 계층(Session Layer)은 데이터와 서비스를 교환하려는 애플리케이션과 프로세스(Process)간의 접속 설정, 관리, 종료에 관한 제어(Control)를 하는 계층입니다. 전송 계층(Transport Layer)은 데이터 전달과 접속에 신뢰성을 주는 곳으로써 데이터를 보내는 곳과 받는 곳 사이에서 에러(error)를 복구하고 흐름을 제어하는 기능을 수행합니다.

이러한 기능은 다음에 소개될 네트워크 계층과 유사하지만, 전자는 통신이 이루어지는 처음과 끝(End-to-End) 시스템 간의 데이터 전송에 관한 이야기이고 후자는 하나의 전송 링크에 관한 관리 기능을 제공하는 데 차이가 있습니다.

이러한 관리 기능을 수행하는 네트워크 계층은 경로의 선택과 중계 기능을 추가로 수행하고 있습니다. 또한 데이터의 전달 기능을 향상시키기 위해서 데이터의 크기를 알맞게 나누는 일을 수행합니다. 데이터 링크 계층(Data Link Layer)은 물리적인 링크간에 신뢰성 있는 정보를 제공하며 정보를 전송하기 위해서 데이터를 블록이나 프레임 단위의 일정한 크기로 전송하고 구분하는 기능을 수행합니다. 이렇게 나눠진 프레임은 각각 순차적인 번호를 부여 받게 되어 목적지에 도착했을 때 에러 검사와 순서화 기능에 사용됩니다.

물리 계층은 비트 레벨의 통신에 관심이 있는 계층입니다. 최하위의 계층으로써 가장 궂은 일을 한다고 볼 수도 있겠죠. 물리 계층은 전송 매체 사이의 인터페이스를 정의하여 데이터 링크 계층과의 사이에 기계적이고 전기적인 기능에 문제가 있는지를 살펴봅니다.

TCP/IP 모델
TCP/IP(Transmission Control Protocol/Internet Protocol) 모델은 인터넷이 개발되었던 알파넷 연구에서 비롯되었습니다. 이러한 배경은 TCP/IP가 인터넷 통신에 가장 적합하게 설계된 이유 중 하나입니다. TCP/IP는 보내는 사람에서 받는 사람까지의 플로우(flow)를 제어할 수 있으며 TCP와 IP 두 개의 프로토콜로 나눠서 통신이 가능하도록 합니다. 무엇보다 가장 큰 장점은 TCP/IP가 간단한 구조를 가지고 OSI의 7개 계층의 역할을 아무 무리 없이 수행해 낸다는 것이지요.

TCP/IP는 이러한 기능을 수행할 수 있는 프로토콜의 집합이라고 볼 수 있습니다. 우리가 많이 들어 알고 있는 프로토콜 이름의 대부분이 바로 TCP/IP의 애플리케이션 계층이라고 할 수 있습니다. 웹 서비스에 사용되는 HTTP를 비롯해서 일반 사용자가 다른 원격 호스트에 원격 로그인하여 자신의 컴퓨터처럼 사용할 수 있는 기능을 제공하는 텔넷, 파일 전송에 사용되는 FTP, 그리고 전자 우편 전송에 사용되는 SMTP(Simple Mail Transfer Protocol) 등을 예로 들 수 있습니다. 이러한 다양한 애플리케이션 프로토콜들은 사용자에게 다양한 애플리케이션을 수행할 수 있도록 도와주는 역할을 합니다.

전송 계층은 호스트 투 호스트(Host-to-Host) 계층이라고도 불리며 출발지에서 보내진 데이터가 목적지에 도착했을 때 출발 당시의 순서대로 정렬될 수 있도록 하는 일처럼 데이터가 송신자에게서 수신자에게까지 신뢰성있게 전송되고 받을 수 있는 역할을 합니다. TCP는 이러한 기능을 수행하는 가장 대표적인 프로토콜입니다.

전송 계층에는 TCP와 함께 UDP(User Defined Protocol)라는 또 다른 프로토콜이 있는데 UDP는 TCP와 달리 신뢰성을 보장할 수 없는 프로토콜입니다 (Unreliable/Connectionless). 따라서 신뢰성이 필요 없는 데이터를 전송할 때는 IP 위에 UDP를 올려 사용하여 데이터의 크기를 줄일 수 있는 장점도 있습니다. TCP와 UDP는 오류 검사를 이용하여 모두 체크섬(Checksum)이라는 방법을 사용하는데, 체크섬은 간단한 2진 덧셈을 통하여 오류를 검색하는 방법입니다.

인터넷 계층(Internet Layer)에서는 인터넷 프로토콜(IP)을 사용하여 인터넷 라우팅과 전송에 사용되는 인터넷 주소를 메시지에 포함하여 송수신지를 결정하게 됩니다. OSI 모델에서는 네트워크 계층이 이러한 기능을 수행합니다. 2004년 현재까지 아직 주소 할당에 32비트를 제공하는 IPv4가 TCP/IP 프로토콜이 주되게 사용되고 있으나 수많은 무선 장치의 등장과 인터넷 사용자 증가로 인한 한계성을 인식하고 주소할당에 128비트를 제공하는 IPv6로의 전환을 준비하고 있습니다.

네트워크 액세스 계층(Network Access Layer)은 서버(Server)와 워크스테이션(Workstation)의 End System, 추가되는 네트워크를 통한 데이터 전송, 그리고 전송 매체에 관심을 가지고 있습니다. 이 계층에서는 사용되는 서비스의 우선순위를 관리하기도 하고 데이터 전달에 관한 주소를 제공하기도 합니다. 물리 계층은 OSI 모델의 그것과 유사한 기능을 수행합니다. 물리적인 수준의 데이터 전송 장치들과 전송 장비 혹은 네트워크간의 인터페이스를 제공하며 전송매체에 관한 특성, 전송 속도 등을 지정합니다.

네트워크로 메시지 보내기
이제 TCP/IP 모델을 이용하여 어떻게 데이터를 소스에서 목적지까지 보내는지 송신자(Sender), 라우터(Router), 수신자(Receiver)의 단계로 구분해서 살펴보도록 하겠습니다. 우리가 살펴볼 예제는 하나의 라우터가 ATM으로 구성된 장거리 네트워크(WAN)에 연결되어 있어 보내는 쪽(서버)과 받는 쪽(사용자 컴퓨터)을 연결하고 있다고 가정하고 있습니다. 그리고 지금 막 사용자가 마우스를 이용하여 브라우저에서 임의의 아이콘을 클릭해서 파일전송이나 웹페이지의 데이터를 요구했다고 가정합니다. 그럼 서버(송신자)가 라우터를 통해 사용자 컴퓨터에게 어떻게 응답(Response)하여 메시지를 수신자에게 보내는지 살펴보도록 하겠습니다.

TCP/IP: 송신자 메시지 보내기

<그림 3> 데이터 보내기

사용자 컴퓨터(수신자)로부터 전해진 메시지 요구로 인하여 서버쪽(송신자) 애플리케이션 계층은 전송할 데이터 블록과 프로토콜을 결정합니다. 만약 전자메일에 관한 요구였다면 SMTP를, 파일이었다면 FTP를 말이죠. 이 단계에서 데이터 송신과 수신 쪽에서 교환하는 데이터의 형태에 대한 동의를 하게 되며 필요하다면 데이터는 목적지에서 압축 또는 암호화(Data Encryption)되거나 보기 쉬운 형태로 변형됩니다.

TCP가 접속을 허가하기로 약속하면 데이터를 세그먼트(segment)라고 불리는 데이터 블록으로 만듭니다. 각각의 세그먼트에는 헤더(header)가 포함되어 있어 전송 에러 검출과 함께 도착지에서 데이터의 순서를 알 수 있도록 해줍니다.

또한 각각의 TCP 세그먼트는 목적지로의 전송시 데이터 손실 등의 경우를 대비해 목적지로부터 데이터가 잘 도착했다는 메시지(acknowledgment)가 도착하기 전까지 복사되어 보관되었다가 확인 메시지가 도착하면 복사본을 지웁니다. 다시 세그먼트는 IP 계층으로 전달되고 IP는 각각의 세그먼트들을 데이터그램(datagram) 단위로 나누어 네트워크 전송에 맞는 사이즈로 재정비합니다. 이때 각각의 데이터 그램은 목적지 주소, 프레임 검사 순서, 제어 정보 등을 가지게 되며 이러한 기능을 프래그먼팅(fragmenting)이라고 합니다.

우리는 첫 번째 네트워크가 서버가 ATM WAN에 연결되어 있다고 가정하고 있기 때문에 이러한 프래그먼트는 다시 ATM 헤더를 포함하여 ATM 네트워크에 전송에 적합한 형태(ATM cell)로 변하게 됩니다. 이러한 Cell은 비트로 표현되어 네트워크 미디엄(network medium)을 통해 라우터로 보내지게 됩니다.

TCP/IP: 메시지 라우터 지나가기

<그림 4> 메시지 라우터 지나가기

라우터는 서로 다른 분리된 네트워크를 연결해 주는 기능을 제공하는 장치입니다. 라우터는 데이터의 목적지 정보가 담겨 있는 헤더를 이용해서 네트워크 상의 가장 효율적인 경로를 선택 패킷을 목적지로 보냅니다. 또한 라우터는 흐름제어 역할과 네트워크 관리 기능을 수행함으로 네트워크의 꼭 필요한 구성 요소입니다. <그림 4>는 ATM Cell의 형태로 전달된 데이터가 물리 계층에 비트 형태로 전달되는 것을 시작으로 보여줍니다.

ATM 계층은 전달된 데이터의 ATM Cell 헤더를 제거하고 헤더를 통해서 라우터에 데이터가 도착하기까지 아무런 에러가 없었는지 살펴봅니다. 또한 접속 번호를 통해서 발신지를 알 수 있습니다. ATM Cell 헤더가 제거된 메시지는 IP 계층에서 IP 헤더를 검사하게 됩니다. 검사 후 IP는 어떠한 경로로 메시지를 목적지에 보낼 것인가를 확정하게 됩니다.

이러한 경로는 목적지와 다시 다른 라우터가 될 수 있지만 우리는 본 예제에서 하나의 라우터를 사용하는 관계로 IP는 데이터그램을 곧바로 목적지로 보내 줄 것입니다. 데이터그램은 LLC(Logical Link Control)로 보내어져 다시 LLC 헤더가 추가되고 LLC PDU(Protocol Data Unit)라고 불리는 세분화된 블록 단위로 사용됩니다. 이 헤더는 주소와 순서에 관한 정보가 포함되어 있습니다. 다시 LLC PDU는 MAC(Media Access Control)으로 보내지고, 여기서 MAC 프레임을 구성하게 됩니다.

특이하게도 이 과정에서는 MAC 헤더와 트레일러(trailer)가 LLC PDU의 시작과 끝에 붙는데 헤더에는 주소 정보가 트레일러에는 에러검출을 위한 프레임 체크 시퀀스 정보가 저장됩니다. 여태껏 우리가 살펴본 중 가장 긴 형태의 메시지는 이제 마지막 목적지를 향하게 됩니다.

TCP/IP: 수신자가 메시지 받기
드디어 목적지에 메시지가 도착했지만 아직 이곳에서도 몇 번의 과정이 기다리고 있습니다. 물리 계층을 통해 비트 프레임의 형태로 전달된 시그널은 MAC 계층에서 헤더와 트레일러를 제거하고 트레일러를 이용해서 에러 검출을 하게 됩니다. 그리고 LLC 계층에서는 헤더를 제거하고 데이터 흐름과 에러 조절을 위해 순서를 조절하게 됩니다. IP 계층에서도 헤더를 제거하고 프레임 검사와 다른 제어정보가 전달되면서 IP 데이터그램의 형태가 됩니다.

TCP 계층 단에서는 다시 한번 헤더 삭제와 함께 흐름 조절이 이루어집니다. 또한 프레임을 체크하게 됩니다. TCP 단에서는 전송지에서 세그먼트 형태로 나뉘어졌던 사용자 데이터를 다시 블록으로 결합한 후에 애플리케이션 단으로 전달하게 됩니다. 마지막으로 메시지가 애플리케이션 단으로 전달되면서 압축을 풀거나(decompression), 암호화를 해제하는(decryption) 등의 기능을 수행하여 데이터가 적합한 파일과 목적지로 바르게 전달되도록 합니다.

<그림 5> 데이터 목적지 도착

데이터 전송 방식, 유니캐스트 VS 멀티캐스트
네트워크의 데이터의 전송 방식은 송신자와 수신자의 입장에서 데이터를 전송하는 방식에 따라 유니캐스트(Unicast)와 멀티캐스트(Multicast)로 나누어집니다. 유니케스트는 네트워크상에서 단일 송신자와 단일 수신자 간의 데이터 전송 방식을 지칭합니다. <그림 7>을 보면 송신자는 목적지 R1, R2, R3과 R4에 독립된 각각의 데이터를 전송합니다.

이러한 방식을 특별하게 멀티플 유니캐스트(Multiple Unicast)라고 하는데, 예전 네트워크를 구성하던 노드 대 노드의 일 대 일(One to One) 연결에 적합한 데이터 전송 방식입니다. 만약 <그림 7>과 같이 데이터의 송신지가 많은 경우에는 특별한 목적이 아니라면 모두에게 데이터를 보내기 위해 각각의 수신자에게 여러 번 데이터를 보내야 하는 유니캐스트를 사용하지 않는 것이 네트워크의 효율을 높일 수 있을 것입니다. 하지만 요즘의 인터넷 통신은 일 대 일 연결이 보편화되어 있고 라우터가 유니캐스트 방식만을 지원하기 때문에 유니캐스트 방식이 가장 많이 사용되고 있습니다.

<그림 6> 멀티플 유니캐스팅과 멀티 캐스팅

멀티캐스트 전송 방식은 하나의 전송자가 하나 이상의 송신자들에게 한 번에 데이터를 전송하는 방식으로 다 대 다(Multipoint to Multipoint) 통신을 위한 방법입니다. <그림 7>의 멀티캐스트를 살펴보면, 전송자는 송신자들에게 동시에 같은 데이터를 전송하는 것을 알 수 있습니다.

이러한 멀티캐스트 전송 방법은 같은 LAN에 연결되어 있는 그룹 사용자들에게 한 번에 메시지를 전송하는 데 적합한 방식입니다. 실제로 이러한 방식은 다중 접속이 되어 있는 인터넷 전화와 영상통신에 많이 응용됩니다. 이러한 전송 방식의 구분은 연재의 마지막 시간에 다룰 NS-NAM으로 해볼 네트워크 시뮬레이션을 이해하는 데 도움이 될 것입니다.

서비스의 속도와 질의 향상을 위해
인터넷과 인터넷 프로토콜은 최선형(best-effort)을 제공하기 위해 디자인되었습니다. 다시 말해서 인터넷과 IP 기반 네트워크는 네트워크상의 패킷을 각각 동일하게 취급하여 목적지로 전송한다는 뜻입니다. 이러한 기본 정의 하에서 네트워크상에 트래픽이 늘고 혼잡(congestion)이 생기기 시작하면 패킷 전송은 점차로 늦어지게 됩니다. 혼잡이 더 크게 발생되면 심지어는 패킷 들을 드랍하여 전송 데이터에 손실을 주게 됩니다. 때문에 네트워크 디자이너에게 Traffic과 Congestion Control은 무엇보다 더 중요한 요소가 됩니다.

평가와 분석 단계에서도 중요성은 계속 인식되어야 합니다. QoS란 높은 데이터 비율(data rate)을 가지고 정확하게 데이터를 전달하는 것을 말합니다. 물론 컴퓨터통신에서 전달에 관한 신뢰성은 매우 중요한 요소입니다. 이러한 QoS를 나타내는 지표로써 흔히 작업 처리량(Throughput), 지연(delay), 패킷 손실(packet loss) 등을 사용합니다.

이러한 요소들은 실생활의 예를 통해서도 쉽게 그 중요성을 인식할 수 있습니다. 늘 지연되곤 하는 네트워크를 이용하는 외환딜러는 그렇지 않은 딜러들과의 경쟁에서 항상 불이익을 받게 될 것입니다. 또 음성이나 비디오 파일 등의 실시간 트래픽(real time traffic)에서 패킷 손실이 많이 일어난다면 우리는 자연스러운 음성과 화면을 볼 수가 없겠지요. 다음 연재에서는 이러한 문제들을 ‘큐잉 이론과 네트워크 디자인’에 관한 주제로 독자 여러분과 함께 살펴보려고 합니다.

2007년 10월 9일 화요일

[Tip] Bootsector 복사

Windows 2000 이후의 MS Windows와 Linux를 하나의 System에 함께 설치하여 사용해야할 필요가 있을 수 있다.

Windows의 NTLoader와 Linux의 GRUB은 모두 Multiboot 환경을 지원하는 Bootloader이므로, 어느 것으로든 Multiboot환경의 Main Bootloader를 삼을 수 있다.

더 간단한 쪽은 GRUB을 Main Bootloader로 사용하는 것이다.

Windows가 이미 설치되어 있는 System에 Linux를 설치하고 GRUB을 MBR에 심어 Main Bootloader로 사용한다면 특별히 손을 봐줘야만 하는 작업은 거의 없다. 자동으로 Multiboot 환경이 GRUB에 구현된다. 세부설정만 입맛에 맞게 수정해주면 족하다. 만약 반대의 순서로 설치한다면 NTLoader가 MBR을 덮어쓰면서 GRUB의 설정이 날아간다. 따라서 이 경우는 차후에 GRUB을 다시 MBR에 복원하는 작업이 필요하다.(참고: SuSE Rescue System을 사용하여 GRUB복구하기)

만약 Windows NTLoader를 Main Bootloader로 사용하고자 한다면 약간의 수작업이 필요하다.

여러가지 경우의 수가 있지만  Linux를 설치하면서 GRUB은 MBR에가 아니라 Boot Partition에 설치하기만 한다면 어느 운영체제를 먼저 설치하느냐는 상관이 없다. 다만 두 운영체제의 설치가 끝난 다음 Linux의 bootsector를 복사해 NTLoader에 붙여주면 된다.(이렇게 한 줄로 써놓았지만 현재 MBR에는 Windows Entry만 있는 NTLoader가 자리잡고 있는 상황이므로, 설치된 Linux로 들어가서된 bootsector를 복사하고 그것을 다시 Windows로 가져오는 것은 약간 번거로울 수 있다. 우선은 설치시디를 이용해서 부팅해 들어간 다음 작업을 해야할 것이다. bootsect.lnx를 가져오는 작업은 Windows로  재부팅하여 Ext2 IFS for Windows를 이용하면 편리하다.)

bootsector를 복사하는 명령은 다음과 같다.

# dd if=/dev/hda7 of=/bootsect.lnx bs=512 count=1
//**root권한이 필요하다. /dev/hda7는 Linux의 boot partition.**//
이렇게 복사한 bootsect.lnx를 Windows의 C:\로 복사해주고 다음의 방법으로 Windows Bootloader에 붙여준다.
boot.ini의
[operating systems] 항목 마지막 줄에
C:\bootsect.lnx="Linux" 추가.

2007년 10월 8일 월요일

[Tip] skim에서 한영키 사용하기

이 Tip은 OpenSuSE 10.2를 기반으로 작성하였으나 10.3으로 새로 설치한 뒤에도
그대로 적용하여 사용하고 있다.

skim은 SCIM(Smart Common Input Method) platform의 Frontend이다.
SCIM이 gtk2 기반인데 반해, skim은 qt를 기반으로 하고 있다.

OpenSuSE 10.2를 설치할 때 필요한 팩키지들
(scim, scim-hangul, scim-input-pad, scim-tables, scim-tables-ko,
scim-tables-skim, scim-hangul-skim, scim-qtimm, skim)이 모두 설치되었다면
별도의 설정없이 skim이 뜨고 한글을 입력할 수 있는 상태가 된다.
(한글 뿐 아니라 전세계 거의 모든 문자의 입력이 가능한 상태가 된다.)
# yast -i scim scim-hangul scim-input-pad scim-tables scim-tables-ko
scim-tables-skim scim-hangul-skim scim-qtimm skim
// 이와 같이 하나의 명령으로 필요한 모두를 설치할 수도 있다.
이 상태로도 사용상 문제는 없지만 속도를 위한 최적화 설정은 다음과 같다.
skim 트레이 아이콘 오른쪽 클릭 - configure에 들어간다.
Frontend 부분에 General SCIM -> Others 탭의 내용을
패널프로그램 scim-panel-kde로, Config Module을 Kconfig 로 설정.
Advanced 를 클릭하여 유니코드 로케일 지원 -> 고치기 버튼을 클릭하여
(만약 없다면) ko_KR.UTF-8 을 더해준다.
(실제로 OpenSuSE의 경우 모든 Unicode Locale들이 이미 들어있으므로 이 추가과정은 필요치 않다.)

이 상태에서 한영전환은 Shift+Space로 하게 된다.
이젠 한영키를 사용하기 위한 설정이다.
우선 xev명령을 사용하여 한영키와 한자키의 keycode를 알아내야 한다.
내 경우는 113과 116이다.

~/.kde/Autostart/hangul와 같은 파일을 새로이 만든다.
#!/bin/bash
xmodmap -e "keycode 113 = Hangul"
xmodmap -e "keycode 116 = Hangul_Hanja"
저장한 다음 실행권한을 준다.
$ chmod a+x ~/.kde/Autostart/hangul

System을 재부팅한후 skim의 configure -> General SCIM -> Toggle on_off 의
... 버튼을 눌러 나오는 창에서 다시 ... 버튼을 누른 후,
한영키를 누르고, 더하기 버튼을 누르면 완료.

2007년 10월 4일 목요일

[Tip] Wine을 통해 NetFolder 웹하드 이용하기

완벽하지는 않아도 Linux에서 Windows용 Software를 사용하는 것이 가능하다.
이를 위해 Windows Emulator인 Wine이 필요하다.
하지만 Wine은
"Wine Is Not an Emulator"에서 온 이름이니 Emulator라 불러서는 안될 것 같기도 하다.
Wine Project Homepage에서는 아래와 같이 설명하고 있다.
Wine is an Open Source implementation of the Windows API on top of X, OpenGL, and Unix.
Think of Wine as a compatibility layer for running Windows programs.
현재 SourceForge에 올라와 있는 최신판 SuSE빌드는
wine-0.9.45-SuSELinux102.i586.rpm 이다. 배포본별로 rpm이 제공되고 있다.
Wine을 통해 할 수 있는 일은 많다.
Internet Explorer를 설치하고 ActiveX를 사용하는 일조차 가능하게 해준다.(IEs4Linux, ActiveX 사용하기)
또한 Wine의 상용버전들도 존재한다.
MS Office2003, XP, 2000 and 97와 Adobe Photoshop 7등을 Linux에서 사용할 수 있게 해주는 Crossover와 예전에 WineX로 알려졌었고 DirectX API의 구현에 촛점을 맞춰서 Windows Game을 Linux에서 돌아가게 해주는 Cedega가 그것이다.
Linux에서 eMule이나 BitTorrent를 사용하는 것에는 거의 제약이 없다.
aMule이나 Mldonkey, KTorrent 등의 Linux용 client program들이 있기 때문이다.
그러나 우리나라의 웹하드 서비스들은 특히나 하나같이 오직 MS Windows 기반의
자체 다운로드도구를 사용하도록 하고 있기 때문에 Linux 사용자들에게는 그림의 떡과도 같았다.

Wine을 사용하여 이러한 웹하드 다운로드도구를 Linux에 설치해보자.
여기에서 설치하려는 웹하드 서비스는 NetFolder이다.
물론 설치하기 전에 NetFolder_Setup파일도 미리 다운로드 해둔다.


~/wine에 두 파일(Wine과 NetFolder의 설치파일)을 두고 설치한다.
$ cd ~/wine
$ sudo rpm -ivh wine-0.9.45-SuSELinux102.i586.rpm
한글이 깨지지 않도록 하기위해서 다음 명령을 주고 NetFolder_Setup을 설치한다.
$ export LANG=ko_KR
$ wine NetFolder_Setup.exe
설치가 완료되면 프로그램이 실행되고 로그인하면 다운로드가 가능하다.

실행파일은 ~/.wine/drive_c/Program Files/NetFolder/에 위치한다.
실행은 다음과 같이 한다.
$ wine ~/.wine/drive_c/Program Files/NetFolder/NetFolder.exe
항상 이렇게 긴 명령을 입력해서 실행하는 것은 너무 불편하므로 바로가기를 만들어 두면 좋은데
위의 실행파일을 바로 link하면 한글이 깨져나오고 프로그램이 정상적으로 작동하지 않는다.
다음과 같은 내용이 들어가는 shell script를 작성하고 실행가능하게 해준 다음
link하면 제대로 작동한다.
#!/bin/sh
export LANG=ko_KR
wine ~/.wine/drive_c/Program Files/NetFolder/NetFolder.exe

p.s. 잠깐 사용해 보니 적어도 내가 테스트 한 환경에서는 안정성에 문제가 있었다.
다운로드가 시작은 잘 되지만 다른 작업을 하다보면 프로그램이 잘 죽는다.
특히나 최대-최소 전환 등 화면전환이 일어나는 경우 어김없이 사라져 버린다.
Wine은 계속 업데이트되고 있으므로 새로운 버전에서는 이러한 문제가 곧 사라질 수도 있다.
그렇지만 현재상태로 이래가지고선 장시간 다운로드를 걸어놓을 수가 없으니
차라리 가상머신에 윈도우스를 설치해서 쓰는 편이 나을 것 같다.
다운로드만을 하려고 가상머신을 돌리는 것이 심히 비효율적이긴 하지만 Linux만 설치되어 있는

시스템에서 donkey나 torrent에는 없고 국내웹하드에만 있는 자료들을 구하려면 어쩔 수가 없는 것 같다.



2007년 10월 1일 월요일

[scrap] CCNA Self-Study

원본출처: Make It Count - miriam님의 Blog

Filtering :  수신지 장비가 프레임과 동일한 세그먼트에 있을 경우, 브리지는 해당 프레임이 다른 세그먼트
로 가는 것을 막는다.

Forwarding : 수신지 장비가 다른 세그먼트에 있을 경우, 브리지는 해당 프레임을 적절한 세그먼트로 전달한다

Flooding : 수신지 어드레스가 브리지에 알려져 있지 않을 경우 브리지는 수신된 곳을 제외한 모든 세그먼트로 해당 프레임을 전달한다

Bridge / Switch Network의 특징
- 각 세그먼트는 자체의 충돌 도메인을 가진다
- 동일한 브리지나 스위치에 연결된 모든 장비는 동일한 브로드 캐스트 도메인의 일부가 된다
- 모든 세그먼트에서 데이터 링크 계층은 모두 동일하게 구현되어야 한다.

Logical Network Address : 한 부분은 인터네트워크 내에 있는 각 네트워크를 고유하게 식별하며, 다른 부분은 각 네트워크에 있는 호스트를 고유하게 식별한다
- 네트워크 부분은 인터네트워크 구조에서 각 네트워크를 식별하며, 라우터는 이 네트워크 부분을 이용하여 전체 네트워크에서의 경로를 확인한다. 라우터는 이 어드레스를 사용하여 네트워크 패킷을 어디로 전송할 것인지 결정한다.
- 호스트 부분은 네트워크에서 특정 장비나 장비의 포트를 식별한다

Metric : 대상 네트워크에 대한 코스트나 거리를 나타낸다. 라우터는 이 메트릭 값을 통하여 저징된 네트워크로 가는 최상의 경로를 선택한다.
 
2계층 스위치의 주요 기능
- 어드레스 학습 / 패킷 전달과 필터링 / 루프 방지(STP 이용)

스위치가 프레임을 한 인터페이스로부터 또 다른 인터페이스로 이동시키는 방법
- Store-and-forward : 프레임을 완전히 수신한 다음에 전달한다
- Cut-through : 스위치는 헤더가 수신되자마자 수신지 어드레스를 검사하고 곧바로 프레임을 전달을
  시작한다
- Fragment-free : 프레임을 전달하기 전에 프레임의 처음 64바이트를 읽는다. 일반적으로
  충돌은 처음 64바이트 안에서 발생한다. 스위치는 64바이트를 읽어서 충돌 프레임을 걸러낼 수 있다.

Bridge loop : 루프 회피 서비스가 작동되지 않을 경우 각 스위치는 브로드캐스트 프레임을 계속 플러딩할 것이다. 루프를 통해서 브로드캐스트 프레임이 계속 전파될 경우 브로드캐스트 폭풍 현상이 생겨서 종국에 가서는 대역폭이 낭비되어서 네트워크와 호스트의 성능에 심각한 악영향을 끼치게 된다.

STP(Spanning Tree Protocol) : DEC에서 개발한 브리지 대 브리지 프로토콜이다. DEC의 스패닝 트리 알고리즘은 IEEE 802 위원회에서 지속적으로 개정되어 IEEE 802.1D 명세로 발표되었다.
스패닝 트리 프로토콜의 목적은 네트워크에서 루프를 방지하는 것이다. 장비가 토폴로지 내의 루프를 인식하고
하나 이상의 이중 포트를 차단할 때 경로에서 루프를 없앨 수 있다.
루프 없는 논리적 토폴로지를 만들기 위해 두 가지 주요 개념, 즉 브리지 ID(bridge ID) 와 경로 코스트(path cost)를 사용한다.
- 루트 브리지(root bridge) 선출 : 브로드캐스트 도메인 내에서 하나의 단일 브리지가 루트 브리지가 된다. 루트 브리지는 가장 낮은 번호의 BID를 가지는 장비이다. 루트 브리지의 모든 포트는 전달 상태가 되고, 이 포트를 지정 포트(designated port) 라고 한다. 포트는 전달 상태에 있을 때 트래픽을 송수신할 수 있다.
- 루트 브리지가 아닌 브리지들은 하나의 루트 포트를 가진다 : 루트 포트(root port)는 루트 브리지가 아닌 브리지에서 루트 브리지에 이르는 가장 낮은 코스트의 경로를 가진다.

Spanning Tree
Port Status
- blocking
- listening
- learning
- forwarding

Spanning Tree
Timer
Hello 타임 : 루트 브리지가 설정 BPDU를 전송하는 시간 간격 / 2초
전달 지연 : 리스닝과 학습 상태의 지속 시간 / 15초
최대 수명 : BPDU 저장 시간 / 20초

RSTP 802.1w
- RSTP(Rapid Spanning Tree Protocol)

Ethernet switching이 네트워크의 가용 대역폭을 증가시켰고, 세그먼트당 사용자의 수를 줄이고, 심지어 전용 세그먼트를 허용하고, 더 나아가서 이들 전용 세그먼트를 서로 연결할 수도 있게 하였다.


===================================================================
CCNA 간략한 요점정리
==============


Q. RIP 의 특징

- 진정한 Distance vector Protocol
- 30초마다 전체 라우팅 테이블을 active interface로 전송함
- 최대허용 hop수는 15 이고 16은 도달불능으로 간주함
- 소규모 네트워크에서 효율적으로 동작
- RIP V.1은 classful routing
- RIP V.2는 classless routing (prefix routing)
- RIP timer
1. Route update timer(30초)
2. Route invalid timer(90초)
3. Route flush timer(240초)

Q. VLAN 설정

- 1900 스위치에서는 64개의 가상랜을 생성할 수 있다.
- 각 가상랜마다 각각의 spanning-tree instance가 설정될 수 있다.
- 1900 스위치는 DISL(Dynamic Inter-Switch Link) encapsulation 방법을 사용할 수 있다.
- ISL routing(Inter-Switch Link routing) 스위치 인터네트워크에서 프레임에 태깅하는
Cisco가 가지고 있는 방법이다. 프레임 태깅은 스위치 인터네트워크에서 프레임의 VLAN
멤버쉽을 정의하는 것이다.

Q. STP

- STP는 네트워크를 계속 감시하여 모든 링크를 찾아내어 루프가 발생하지 않도록 이중화 링크들을 차단한다.
- 한 네트워크에서는 오직 하나의 루트브릿지가 존재함
- STP를 작동하는 스위치나 브릿지는 BPDU(Bridge Protocol Data Unit)라 부르는 정보를 교환한다.
- BPDU는 매 2초마다 송신한다
- 브릿지 ID는 8byte이며 장비의 우선순위와 MAC어드레스 정보가 포함되어 있다.
- IEEE STP가 작동하는 모든 장비의 우선순위 값은 32767
- root 브릿지의 우선순위는 MAC

Q. STP의 포트 상태

-Blocking, Listening, Learning, Forwarding
-Convergence는 브릿지와 스위치가 forwarding이나 blocking상태로 변환되면 발생한다.
-일반적으로 blocking에서 forwarding상태로 바뀌는데 50초 걸린다.

Q. LAN 스위치 방식의 3가지를 설명

1. Store-and-Forward

보드상 버퍼에 프레임 전체를 복사하며, CRC를 계산한다. 프레임 전체를 버퍼에 복사하기 때문에 스위치의 latency가 프레임의 길이에 따라 다르다. CRC 오류가 있거나, 너무 작거나(64>CRC<1518) 너무 큰 경우 프레임은 폐기된다. 프레임에 오류가 없는 경우 LAN스위치는 포워딩 혹은 스위칭 테이블에서 수신지 하드웨어 어드레스를 참조하여 외부로 송신하는 인터페이스를 결정한다. Catalyst 5000 series에서 사용, 스위치상에서 동작방식을 수정할 수 없다.

2. Cut-Through(Real Time)

LAN스위치가 보드상 버퍼에 수신지 어드레스만 복사한 후 MAC 스위칭 테이블에서 수신지 하드웨어 어드레스를 참조하여 외부로 송신하는 인터페이스를 결정하고 수신지에 프레임을 포워드한다. Cut-through 스위치는 수신지 어드레스를 참조하여 외부로 송신하는 인터페이스를 결정하는 즉시 프레임을 포워드하기 때문에 대기시간이 단축된다.

3. Fragment Free(개정판 Cut-Through)

스위치는 충돌 윈도우(64 byte)를 수신하기까지 프레임을 포워딩하지 않는다. 이는 패킷내의 오류는 거의 대부분 첫 64byte에서 발생하기 때문이다. FragmentFree 방식에서는 실제 대기시간을 늘리지 않고 cut-through방식보다 나은 오류 검증을 제공한다. 1900스위치의 기본 스위칭 방식이다.
Fragment Free는 Cut-Through와 Store&Forward의 절충형.
-Interim Cut-Through
컷스루 방식이 가지고 있는 약점중에 64바이트 런튼 프레임을 막는 기능을 보강.
프레임의 처음 64바이트의 부분을 FIFO에 저장한다음 프레임의 길이가 64바이트 이하이면 FIFO에서 삭제. 이런 방식을 이용하여 런트프레임을 처리. 다만 에러에 의한 프레임은 처리 못함. 또한 기존의 문제인 적체 문제도 그대로 가지고 있다.


Q. 각 layer의 characteristic

1. Application layer

www, e-mail gateway, EDI(Electronic Data Interchange), Special interest bulletin boards, Internet Navigation Utilities, Financial Transaction Service, etc...

2. Presentation layer

PICT, TIFF(Tagged Image File Format), JPEG, MIDI, MPEG, Quick time, etc...

3. Session layer

NFS(Network File System), SQL(Structured Query Language), RPC(Remote Prcedure Call), X window, ASP (AppleTalk Session Protocol), DNA SCP(Digital Network Architecture Session Control Protocol), etc...

4. Transport Layer(TCP)

Flow Control
Connection-Oriented Communication
Windowing
Acknowledgement

5. Network Layer(IP)

Routing & addressing
Router는 broadcast domain을 분할한다. 또한 브로드캐스트나 멀티캐스트의 어떤 패킷도 전송하지 않을 수 있다.
라우터는 인접 hop 라우터에게 패킷을 전송할 경우, 네트워크 레이어 헤더의 논리적 어드레스를 사용한다.

6. Data Link Layer

MAC(Media Access Control) 802.3 - 미디어에 패킷을 싣는 방법에 대하여 정의함, 논리적 토폴로지, 물리적 어드레스
도 정의됨
LLC(Logical Link Control) 802.2 네트워크 레이어 프로토콜을 식별하고 캡슐화 함. LLC헤더는 데이터링크 계층에
프레임이 수신되면 패킷을 가지고 무엇을 해야할 지 알려줌
스위치와 브리지는 이 레이어에서 작동하며, MAC address를 사용하여 네트웍을 필터링함.

7. Physical layer

Ethernet
10Base2 - 10Mbps, 185m
10Base5 - 10MBps, 500m
10BaseT - category5, 10Mbps

Q. Connection Oriented method

call setup - data transfer - call termination

Q. IPX의 encapsulation type

Ethernet Novell Cisco Keyword
Ethernet 802.3 novell-ether(default)
Ethernet 802.2 sap
Etehrnet II arpa
Ethernet_snap snap
Token Ring Token Ring sap(default)
Token-Ring_snap snap

Q. ARP ?

-Address Resolution Protocol
-알고 있는 IP 어드레스로부터 호스트의 하드웨어 어드레스를 알아낸다.
-ARP는 IP 어드레스를 Ethernet 어드레스로 변화시킨다.
-RARP는 Ethernet 어드레스를 IP 어드레스로 변환시킨다.

Q. Transport layer protocol의 3가지 특징

-Flow control
-Connection-Oriented Communication
-Windowing

Q. Frame Relay에서의 CIR의 의미는?

-Committed Information Rate
-Frame Relay네트워크가 동의한 전송정보의 최소 비율로서 bps로 측정됨

Q. ISDN Protocols

ISDN protocols are defined by the ITU, and there are several series of protocols dealing
with diverse issues:
-Protocols beginning with the letter E deal with using ISDN on the existing telephone network.
-Protocols beginning with the letter I deal with concepts, aspects, and services.
-Protocols beginning with the letter Q cover switching and signaling.

Q. Frame Relay 에서 PPP connection을 할 때 해야할 두가지 작업은?

-Physical interface에서 IP를 죽인다.  (반드시 나오는 문제.. BCRAN에두 나옵니다..)
-각 subinterface마다 dlci를 수동으로 설정한다.

Q. RIP을 셋팅하기 위한 prompt and command ?  (이것은 시뮬문제랑 같죠? (^^;)

router(config)#router rip
router(config-router)#network x.x.0.0
router(config-router)#^Z
#

Q. 한 라우터는 IP RIP이 설정되었으나 다른 라우터는 안되어 있다. 모든 RIP routing이 업데이트 되는 것을 막는 커맨드는?

router#conf t
router(config)#router rip
router(config-router)#network x.x.0.0
router(config-router)#passive-interface serial 0
-RIP 업데이트가 시리얼 인터페이스 0으로 전파되지 못하게 지정한 것. 그러나 s0는 여전히 RIP 업데이트를
수신할 수는 있다.

Q. VLAN의 이점은?

-Broadcast Control
-Security
-Flexibility and Scalability

Q. 스위치타입에 대한 설명

Store and forward - The complete data frame is received on the switch's buffer, a CRC is run, and then the destination address is looked up in the MAC filter table.
Cut-through - The switch only waits for the destination hardware address to be received and then looks up the destination address in the MAC filter table.
FragmentFree - The default for the Catalyst 1900 switch, it is sometimes referred to as modified cut-through.
Checks the first 64 bytes of a frame for fragmentation (because of possible collisions)
before forwarding the frame.

Q. IP 네트웍에 대한 설명으로 맞는 것은?

1. MAC address is part of the physical layer
2. MAC address are used by bridge to make forwarding decision; IP address are used by routers
3. MAC은 OSI model의 layer 2에 속한다.

Q. Network layer의 4가지 특징

1. It uses two part address
2. It maintains routing table
3. It establish network address
4. It provide path selection for networking

Q. LAN의 속도를 높일 수 있는 방법은?

-스위치를 사용한다.

Q. IPX가 다중 logical network를 지원하는 방법은?

1. network number
2. routing protocol
3. encapsulation type
4. autonomous system number

Q. What is the protocol and what is the second part of the following network address? 255.255.255.255

-IP : a flooded broadcast
-IPX : a flooded broadcast

Q. LAN segmentation의 장점은?

-smaller collision domain

Q. ICMP의 권고안은?

-RFC 1256