Site Overlay

Support

Opdateret den oktober 4, 2018

Hvad er ventetid, der er defineret

Mange mennesker har sandsynligvis hørt udtrykket ventetid bliver brugt før, men hvad er ventetid præcist? Med hensyn til netværksforsinkelse kan dette defineres af den tid det tager for en anmodning om at rejse fra afsenderen til modtageren og for modtageren at behandle denne anmodning. Med andre ord, rundturstiden fra bro .seren til serveren., Det er naturligvis ønsket, at denne tid forbliver så tæt på 0 som muligt, imidlertid, der kan være et par ting på spil, der forhindrer, at dit latebsteds latenstider forbliver lavt.

Latency vs båndbredde vs gennemstrømning

selvom latency, båndbredde og gennemstrømning alle arbejder sammen hånd i hånd, har de forskellige betydninger. Det er lettere at visualisere, hvordan hvert udtryk fungerer, når det henvises til et rør:

  • båndbredde bestemmer, hvor smalt eller bredt et rør er. Jo smalere det er, jo mindre data kan skubbes igennem det på ATN gang og omvendt.,
  • Latency bestemmer, hvor hurtigt indholdet i et rør kan overføres fra klienten til serveren og tilbage.
  • Throughput er den mængde data, der kan overføres over en given tidsperiode.

Hvis latensen i et rør er lav, og båndbredden også er lav, betyder det, at gennemstrømningen i sig selv er lav. Men hvis latensen er lav, og båndbredden er høj, giver det mulighed for større gennemstrømning og en mere effektiv forbindelse., I sidste ende skaber latency flaskehalse i netværket og reducerer dermed mængden af data, der kan overføres over en periode.

årsager til netværksforsinkelse

spørgsmålet om, hvad der er latenstid, er blevet besvaret, nu hvor kommer latenstid fra? Der er 4 hovedårsager, der kan påvirke netværkets latenstid. Disse inkluderer følgende:

  • transmissionsmedier såsom WAN-eller fiberoptiske kabler har alle begrænsninger og kan påvirke latenstid simpelthen på grund af deres art.,
  • formering er den tid, det tager for en pakke at rejse fra en kilde til en anden (ved lysets hastighed).
  • routere tager tid at analysere headeroplysningerne for en pakke samt i nogle tilfælde tilføje yderligere oplysninger. Hvert hop en pakke tager fra router til router øger latenstiden.
  • lagerforsinkelser kan forekomme, når en pakke gemmes eller åbnes, hvilket resulterer i en forsinkelse forårsaget af mellemliggende enheder som kontakter og broer.,

måder at reducere latenstid

latenstid kan reduceres ved hjælp af et par forskellige teknikker som beskrevet nedenfor. At reducere mængden af serverforsinkelse vil hjælpe med at indlæse dine webebressourcer hurtigere og dermed forbedre den samlede sideindlæsningstid for dine besøgende.

  1. HTTP/2: brugen af den stadig udbredte HTTP / 2 er en anden god måde at hjælpe med at minimere latenstid. HTTP / 2 hjælper med at reducere serverforsinkelse ved at minimere antallet af rundrejser fra afsenderen til modtageren og med paralleliserede overførsler. KeyCDN tilbyder stolt HTTP / 2-support til kunder på tværs af alle vores edge-servere.,færre eksterne HTTP-anmodninger: reduktion af antallet af HTTP-anmodninger gælder ikke kun billeder, men også for andre eksterne ressourcer, såsom CSS-eller JS-filer. Hvis du henviser til oplysninger fra en anden server end din egen, foretager du en ekstern HTTP-anmodning, som i høj grad kan øge latebstedets latenstid baseret på hastigheden og kvaliteten af tredjepartsserveren.
  2. brug af en CDN: brug af en CDN hjælper med at bringe ressourcer tættere på brugeren ved at Cache dem flere steder rundt om i verden., Når disse ressourcer er cachelagret, behøver en brugers anmodning kun at rejse til det nærmeste nærvær for at hente disse data i stedet for at gå tilbage til origin-serveren hver gang.
  3. brug af prefetching metoder: Prefetching webebressourcer reducerer ikke nødvendigvis mængden af latenstid i sig selv, men det forbedrer dit websiteebsteds opfattede ydeevne. Med prefetching implementeret, latenstid intensive processer finder sted i baggrunden, når brugeren er bro .ser en bestemt side., Derfor, når de klikker på en efterfølgende side, har job som DNS-opslag allerede fundet sted, og dermed indlæses siden hurtigere.
  4. bro .ser caching: en anden type caching, der kan bruges til at reducere latenstid, er bro .ser caching. Bro .sere cache visse ressourcer på et websiteebsted lokalt for at hjælpe med at forbedre latenstider og reducere antallet af anmodninger tilbage til serveren. Læs mere om browsing-caching og de forskellige direktiver, der findes i vores Cache-Control artikel.,

andre typer latenstid

latenstid forekommer i mange forskellige miljøer, herunder lyd, netværk, operationer osv. I det følgende beskrives to yderligere scenarier, hvor latenstid også er udbredt.

fiberoptisk latenstid

latenstid i tilfælde af dataoverførsel gennem fiberoptiske kabler kan ikke forklares fuldt ud uden først at diskutere lysets hastighed og hvordan det relaterer til latenstid. Baseret på lysets hastighed alene (299.792.458 meter/sekund) er der en latenstid på 3, 33 mikrosekunder (0, 000001 af et sekund) for hver kilometer sti dækket., Lyset bevæger sig langsommere i et kabel, hvilket betyder, at latenstiden for lys, der kører i et fiberoptisk kabel, er omkring 4.9 mikrosekunder pr.

baseret på hvor langt en pakke skal rejse, kan mængden af latenstid hurtigt tilføje op. Kabelfejl kan også forringe forbindelsen og øge mængden af latenstid, der opstår af et fiberoptisk kabel.

lydforsinkelse

denne form for latenstid er tidsforskellen mellem en lyd, der oprettes og høres. Lydens hastighed spiller en rolle i denne form for latenstid, som kan variere afhængigt af det miljø, den bevæger sig gennem f.eks., Inden for teknologi kan lydforsinkelse forekomme fra forskellige kilder, herunder analog til digital konvertering, signalbehandling, hard .are / soft .are, der bruges osv.

Sådan måles netværksforsinkelse?

netværksforsinkelse kan testes ved hjælp af enten Ping, Traceroute eller MTR (hovedsagelig en kombination af Ping og Traceroute). Hvert af disse værktøjer er i stand til at bestemme specifikke latenstider, hvor MTR er den mest detaljerede.

brugen af MTR giver en bruger mulighed for at generere en rapport, der viser hvert hop i et netværk, der var nødvendigt for en pakke at rejse fra punkt A til punkt B., Rapporten vil indeholde detaljer som tab%, gennemsnitlig latenstid osv. Se vores traceroute kommando artikel for at lære mere om MTR og traceroute.

det Væsentlige, latency er målt ved hjælp af en af to metoder:

  1. Round trip time (RTT)
  2. Tid til første byte (TTFB)

round trip time kan måles ved hjælp af ovenstående metoder, og indebærer at måle mængden af tid, det tager mellem, når en klient sender en forespørgsel til serveren, og når det får det tilbage., På den anden side måler ttfb den tid, det tager mellem, når en klient sender en anmodning til en server, og når den modtager sin første byte af data. Du kan bruge vores testværktøj til at måle TTFB for ethvert aktiv på tværs af vores netværk af 16 teststeder.

Gennemløb regnemaskine

Hvis du er nysgerrig efter at vide, hvordan ventetid påvirker gennemløb i en hypotetisk situation, kan du bruge et gennemløb lommeregner. Du skal blot definere applikationen, latensværdien, afstanden osv., Når du er færdig, skal du se på den “ikke-optimerede” bjælke for at få et skøn over den maksimale gennemstrømning, du kan forvente.

Oversigt

Denne artikel har forhåbentlig hjulpet til at besvare spørgsmålet om, hvad der er ventetid og gav læserne en bedre forståelse af, hvad der forårsager det. Latency er en uundgåelig del af dagens netværksøkosystem og er noget, vi kan minimere, men ikke helt eliminere., De ovennævnte forslag er dog vigtige skridt at tage for at reducere dit websiteebsteds latenstid og hjælpe med at forbedre sideindlæsningstiderne for dine brugere. Trods alt, i dagens internet alder, betydningen af hjemmesiden hastighed kommer ned til millisekunder og kan være værd millioner af dollars i vundet eller tabt fortjeneste.

Skriv et svar

Din e-mailadresse vil ikke blive publiceret. Krævede felter er markeret med *