Giga- (símbolo: G) es un prefijo del Sistema Internacional de Unidades que indica un factor de 109, o 1 000 000 000 (mil millones).Un Gigabyte es una unidad de medida aproximadamente igual a 1 billón de bytes. El gigabyte se utiliza para cuantificar memoria o capacidad de disco.El bit es la unidad mínima de medida informática.
Ya que el byte es una unidad de información muy pequeña, se suelen utilizar sus múltiplosEste sistema fue escogido por los ingenieros informáticos ya que era más fácil para la máquina distinguir y manejar dos dígitos (0 y 1), en lugar de los diez dígitos que constituyen el sistema decimal (del 0 al 9).
Todos los programas, instrucciones, textos, etc, que introducimos en la computadora, ésta los recibe en código binario como una cadena de ceros y unos. Cada cero y cada uno representa un "bit" de información.
que es un gigahertz.?
El gigahercio (GHz) es un múltiplo de la unidad de medida de frecuencia hercio (Hz) y equivale a 109 (1.000.000.000) Hz. Por lo tanto, tiene un ciclo de 1 nanosegundo.
Las ondas de radio con frecuencias cercanas al gigahercio se denominan microondas. Una microonda de 1 GHz tiene 30 cm de amplitud de onda y una de 3 GHz 10 cm. Son muy empleadas en comunicaciones mediante una antena parabólica con aspecto de tambor. Bandas de microondas (en GHz) muy utilizadas son:
- GSM (0,8 y 1,8 GHz)
- GPS (1,3 GHz)
- Wi-Fi (2,4 y 5,0 GHz)
- Magnetrón del horno de microondas (2,4 GHz)
.
que diferencia tienen.?
Un gigabyte es una unidad de almazenamiento En el caso de las comunicaciones se refiere al espacio del espectro electromagnético que ocupa, es una medida de capacidad Y un gigahertz es la velocidad de la transmisión de datos. Dentro del mundo de la computación se refiere a la velocidad del procesador, significa que puede procesar datos a ese ritmo.se podra decir qe es una medida de velocidad
No hay comentarios:
Publicar un comentario