Front Office Trading System Arkitektur
Front-to-Back Trade Finance De fleste banker som leverer handelstjenester, anerkjenner nå behovet for å tilby kundene et toppmoderne handelsfinansieringsfront-system for å supplere eksisterende infrastruktur. Front-end-systemet skal være enkelt å bruke og funksjonelt rikt, slik at bankene kan øke kundetilfredshet og oppbevaring. På grunn av konkurransedyktig press må et slikt system ofte gjennomføres innen få uker for å demonstrere konkrete resultater til bankkunder. For å maksimere bruken og effektiviteten til kundens frontend, bør den være fullt integrert med bankens backoffice handelsfinansieringssystem. Imidlertid er det en utfordrende oppgave å etablere en end-to-end handelsfinansieringsløsning som omfatter både kundefront-og bankback-kontorsystemer. Integrering fra baksiden kan være vanskelig på grunn av eldre backofficesystemer, som ofte ikke er i stand til å motta sanntidsfeed, kartlegge datainngang fra kunder og laste ned nødvendige data til kunden. Suksessen er avhengig av å etablere en innovativ, førsteklasses løsning i verdensklasse, støttet av kvalitetskundeservice fra en reputatør. End-to-End Trade Finance Solution Surecomp leverer integrerte end-to-end handelsfinansieringsløsninger bestående av førsteklasses front-end og back-office systemer. På bankens back-office-side tilbyr Surecomp flere systemer, hver målrettet for ulike bruksnivåer, geografisk beliggenhet og IT-infrastruktur. På kundens forside, tilbyr Surecomp et enkelt, enhetlig J2EE-kompatibelt system som er fullt integrert med alle Surecomps back-office-systemer. På grunn av sin høyt åpne arkitektur integrerer front-end-systemet også enkelt med tredjeparts eller interne backofficesystemer. Uavhengig av bankers plassering, størrelse, geografisk spredning av operasjoner eller transaksjonsvolum, har Surecomp en front-to-back handelsfinansieringsløsning som tilfredsstiller de spesifikke behovene til hver enkelt klient. Gjennomføring Surecomp setter pris på at full implementering av back-office-systemet kan ta tid, og dermed forsinke distribusjon av en front-to-back løsning. Banken kan for eksempel kreve tilpasning av systemet. I tillegg må systemet installeres, konfigurert til bankens spesifikke praksis, grensesnittet til flere interne systemer, testet og flyttet til produksjon. Som et resultat tar implementering av Surecomps back-office-systemer vanligvis en rekke måneder. Likevel er ikke alle banker forberedt på å vente på ferdigstillelse av back-office-implementering før de starter sin kundes frontend-tjenester. Derfor tilbyr Surecomp også en frittstående versjon av sitt front-end-system, som kan lanseres som en midlertidig løsning på bare noen få uker. Umiddelbart etter ferdigstillelse av back-office-produksjonen, kan den fullt integrerte løsningen gjøres tilgjengelig for banken. Denne end-to-end-tilnærmingen innebærer at banker som lisensierer noen av Surecomps backofficesystemer, sammen med sitt front-end-system, møter små og mellomstore integrasjonsutfordringer. End-to-End Solution Benefits Banker over hele verden som allerede har implementert en Surecomp front-to-back handelsfinansiering løsning, høster nå fordelene. De, sammen med sine kunder, tar imot den integrerte end-to-end-løsningen med stor entusiasme. Bankperspektiv Rapid end-to-end implementering og integrering Langsomt redusert datainngang på grunn av automatisk datakartlegging. Hurtigere transaksjonsavvikling ndash komplekse transaksjoner fullført i løpet av minutter. Bevisst økning i forretningsvolum på grunn av økt kundetilfredshet Ekstremt kort avkastning på investeringen så lav som 6 måneder Kundeperspektiv 24 x 7 systembruk ndash ingen nedetid Ekstremt rask implementering av front-end-system Internett-tilgang fra hvilken som helst plassering ndash ingen programvareinstallasjon Kundens igangsetting av enhver form for handelstransaksjon Enkel tilgang til porteføljeorganisasjon og ledelse via hjelpespråk for flere språk Hvorfor Surecomp Bevist: Surecomprsquos Handelsfinansieringssystemer er allerede implementert hos hundrevis av banker og selskaper over hele verden, inkludert store nasjonale, regionale og globale banker. Erfarne: Surecomp har vært aktiv i handelsfinansieringsbransjen siden 1987, og har fått stor kunnskap om lokal og regional praksis. State-of-the-Art: Surecomprsquos banebrytende handelsfinansieringsløsninger utvikles internt av lag av dedikerte IT - og bankspesialister. Best-of-Breed: Surecomprsquos back-office og front-end-systemer er allment anerkjent som de ledende tilbudene i sine respektive områder. Major Paraguayan Bank Licenses Surecomps Java End-to-End Trade Finance SolutionCapital Markets Derivater er komplekse 8230 Det raskt forandrede regulatoriske og teknologilandskapet forvandler finansmarkeder. Å tilpasse seg disse nye markedsforholdene er viktig. Dodd-Frank og EMIR er de nye realitetene med elektronisk handel, obligatorisk clearing og handelsrapportering som har betydelig innvirkning på derivatoperasjoner og arbeidsflyt. Selgesidefirmaer må nøyaktig gjenspeile alle markeds-, kreditt - og likviditetsrisikoer i sine pris - og risikostyringsberegninger. Økte kapitalkrav diktert av Basel III gir ytterligere press på lønnsomhet. Calypso gjør dem enkle. Calypsos cross-asset front-to-back plattform for trading, behandling, risikostyring og regnskap tilpasset alle nye aspekter av cleared og OTC derivater markeder. Våre løsninger gjør at kundene kan imøtekomme de raskt skiftende kravene til vår bransje uten å pålegge dyre teknologiutviklinger. Integrert pakke med kryssfordeler og risikostyringsløsningerTrading Floor Architecture Trading Floor Architecture Executive Oversikt Økt konkurranse, høyere markedsdata volum og nye regulatoriske krav er noen av drivkraften bak industriendringer. Bedrifter prøver å opprettholde sin konkurransefortrinn ved stadig å endre sine handelsstrategier og øke handelshastigheten. En levedyktig arkitektur må inneholde de nyeste teknologiene fra både nettverks - og applikasjonsdomener. Det må være modulært for å gi en håndterlig vei for å utvikle hver komponent med minimal forstyrrelse av det totale systemet. Derfor er arkitekturen som foreslås av dette papiret basert på et tjenestegrunnlag. Vi undersøker tjenester som ultra-low latency messaging, latency overvåking, multicast, databehandling, lagring, data og applikasjons virtualisering, trading resiliency, handel mobilitet og tynn klient. Løsningen til de komplekse kravene til neste generasjons handelsplattform må bygges med en helhetlig tankegang, som krysser grensene for tradisjonelle siloer som forretning og teknologi eller applikasjoner og nettverk. Hoveddokumentet til dette dokumentet er å gi retningslinjer for å bygge en plattform for ekstremt lav ventetid, samtidig som man optimaliserer råmengde og meldingsfrekvens for både markedsdata og FIX-handelsordrer. For å oppnå dette foreslår vi følgende ventetidsreduksjonsteknologier: Høyhastighets inter-connectInfiniBand eller 10 Gbps-tilkobling for handelsklyngen Høyhastighetsmeldingsbuss Applikasjonsakselerasjon via RDMA uten applikasjon omregistrere sanntidsforsinkelse og re-retning av handelstrafikk til banen med minimal ventetid Bransjestendenser og utfordringer Neste generasjons handelsarkitekturer må svare på økte krav til fart, volum og effektivitet. For eksempel forventes volumet av opsjonsmarkedsdata å doble etter introduksjonen av opsjonspenny trading i 2007. Det er også lovkrav for best mulig utførelse, som krever håndteringspris oppdateringer til priser som nærmer seg 1M msgsec. for utveksling. De krever også synlighet i dataets friskhet og bevis på at klienten har best mulig utførelse. På kort sikt er handels - og innovasjonshastighet viktige differensier. Et økende antall handler håndteres av algoritmiske handelsapplikasjoner som er plassert så nært som mulig for handelsutførelsesstedet. En utfordring med disse quartz-boxquot-handelsmotorer er at de forbinder volumøkningen ved å utstede ordrer bare for å avbryte dem og sende dem igjen. Årsaken til denne oppførselen er mangel på synlighet i hvilken arena gir best mulig utførelse. Den menneskelige næringsdrivende er nå en sivilingeniør, en kvotantkvot (kvantitativ analytiker) med programmeringsferdigheter, som kan justere handelsmodeller på fluen. Bedrifter utvikler nye finansielle instrumenter som vær derivater eller cross-asset class trades, og de trenger å distribuere de nye applikasjonene raskt og på skalerbar måte. På lang sikt bør konkurransedyktig differensiering komme fra analyse, ikke bare kunnskap. Stjernehandlerne i morgen tar på seg risiko, oppnår ekte klientinnsikt og konsekvent slo markedet (kilde IBM: www-935.ibmservicesusimcpdfge510-6270-trader. pdf). Forretningssikkerhet har vært en viktig bekymring for handelsfirmaer siden 11. september 2001. Løsninger på dette området spenner fra redundante datasentre som ligger i forskjellige geografiske områder og koblet til flere handelssteder til virtuelle handelsløsninger som tilbyr strømforhandlere mesteparten av funksjonaliteten til et handelsgulv på en ekstern plassering. Finansnæringen er en av de mest krevende når det gjelder IT-krav. Næringen opplever et arkitektonisk skifte mot Services Oriented Architecture (SOA), webtjenester og virtualisering av IT-ressurser. SOA utnytter økningen i nettverkshastigheten for å muliggjøre dynamisk binding og virtualisering av programvarekomponenter. Dette gjør det mulig å skape nye applikasjoner uten å miste investeringen i eksisterende systemer og infrastruktur. Konseptet har potensial til å revolusjonere måten integrering er gjort, noe som muliggjør betydelige reduksjoner i kompleksiteten og kostnaden ved en slik integrasjon (gigaspacesdownloadMerrilLynchGigaSpacesWP. pdf). En annen trend er konsolidering av servere i datasenter-serverfarmar, mens handelsdisker har kun KVM-utvidelser og ultratynne klienter (for eksempel SunRay og HP-bladløsninger). Høyhastighets Metro Area Networks gjør det mulig for markedsdata å være multicast mellom forskjellige steder, slik at virtualiseringen av handelsgulvet blir muliggjort. Høyt nivå arkitektur Figur 1 viser arkitekturen på et høyt nivå i et handelsmiljø. Ticker-anlegget og de algoritmiske handelsmotorer er lokalisert i high performance trading-klyngen i firmaets datasenter eller på utvekslingen. De menneskelige handelsmennene er lokalisert i sluttbruker applikasjonsområdet. Funksjonelt er det to applikasjonskomponenter i bedriftshandelsmiljøet, utgivere og abonnenter. Messaging-bussen gir kommunikasjonsveien mellom utgivere og abonnenter. Det er to typer trafikk som er spesifikk for et handelsmiljø: Market DataCarries-prisinformasjon for finansielle instrumenter, nyheter og annen verdiskapende informasjon, for eksempel analytikk. Det er ensrettet og svært latensfølsom, vanligvis levert over UDP multicast. Det måles i oppdateringsspesifikasjon. og i Mbps. Markedsdata flyter fra en eller flere eksterne feeds, som kommer fra markedsdatautbydere som børser, dataaggregatorer og ECNs. Hver leverandør har sitt eget markedsdataformat. Dataene er mottatt av feed handlers, spesialiserte applikasjoner som normaliserer og renser dataene og sender det til data forbrukere, for eksempel prismotorer, algoritmiske handelsapplikasjoner eller menneskelige handelsfolk. Selger-sidefirmaer sender også markedsdata til sine kunder, kjøpsselskaper som fond, hedgefond og andre kapitalforvaltere. Noen kjøpsselskaper kan velge å motta direkte strømmer fra utveksling, noe som reduserer ventetiden. Figur 1 Handelsarkitektur for et kjøp SideSell Sidefirma Det er ingen bransjestandard for markedsdataformater. Hver utveksling har sitt proprietære format. Finansielle innholdsleverandører som Reuters og Bloomberg samlet ulike kilder til markedsdata, normaliserer det og legger til nyheter eller analyser. Eksempler på konsoliderte feeds er RDF (Reuters Data Feed), RWF (Reuters Wire Format) og Bloomberg Professional Services Data. For å levere lavere ventetid markedsdata har begge leverandørene gitt ut sanntids markedsdata-feeder som er mindre prosessert og har mindre analyser: Bloomberg B-PipeWith B-Pipe, deaktiverer Bloomberg sine markedsdata fra deres distribusjonsplattform fordi en Bloomberg terminal er ikke nødvendig for å få B-rør. Wombat og Reuters Feed Handlers har annonsert støtte for B-Pipe. Et firma kan bestemme seg for å motta strømmer direkte fra en bytte for å redusere ventetiden. Gevinsten i overføringshastigheten kan være mellom 150 millisekunder og 500 millisekunder. Disse fôrene er mer komplekse og dyrere og firmaet må bygge og vedlikeholde sin egen ticker plante (financetechfeaturedshowArticle. jhtmlarticleID60404306). Trading Orders Denne typen trafikk bærer de faktiske handler. Det er toveis og veldig latensfølsomt. Det måles i messagessec. og Mbps. Ordrene kommer fra en kjøpsside eller selger side firma og sendes til handelssteder som en Exchange eller ECN for utførelse. Det vanligste formatet for bestillingstransport er FIX (Financial Information eXchangefixprotocol. org). Programmene som håndterer FIX-meldinger kalles FIX-motorer, og de grensesnitt med ordrehåndteringssystemer (OMS). En optimalisering til FIX kalles FAST (Fix Adapted for Streaming), som bruker et komprimeringsskjema for å redusere meldingslengde og i virkeligheten redusere ventetiden. FAST er målrettet mer til levering av markedsdata og har potensial til å bli en standard. FAST kan også brukes som kompresjonsskjema for proprietære markedsdataformater. For å redusere ventetiden kan firmaer velge å etablere direkte markedsadgang (DMA). DMA er den automatiserte prosessen med å dirigere en verdipapirordre direkte til en utførelseslokal, og unngår derfor inngrep av en tredjepart (towergroupresearchcontentglossary. jsppage1ampglossaryId383). DMA krever en direkte forbindelse til utførelsesstedet. Messaging-bussen er mellomvareprogramvare fra leverandører som Tibco, 29West, Reuters RMDS, eller en åpen kildekodeplattform som AMQP. Messagingbussen bruker en pålitelig mekanisme for å levere meldinger. Transporten kan gjøres over TCPIP (TibcoEMS, 29West, RMDS og AMQP) eller UDPmulticast (TibcoRV, 29West og RMDS). Et viktig konsept i meldingsdistribusjon er den quottopiske strømmen, som er en delmengde av markedsdata definert av kriterier som tickersymbol, industri eller en viss kurv med finansielle instrumenter. Abonnenter deltar emnegrupper kortlagt til ett eller flere underemner for kun å motta relevant informasjon. Tidligere mottok alle forhandlere alle markedsdata. Ved dagens trafikkvolum vil dette være suboptimal. Nettverket spiller en kritisk rolle i handelsmiljøet. Markedsdata blir overført til handelsgulvet der de menneskelige handlerne befinner seg via et høyhastighetsnettverk i Campus eller Metro. Høy tilgjengelighet og lav ventetid, samt høy gjennomstrømning, er de viktigste beregningene. Det høye ytelsesmessige handelsmiljøet har de fleste av komponentene i datasenterets servergård. For å minimere ventetid, må de algoritmiske handelsmotorer lokaliseres i nærheten av matbehandlere, FIX-motorer og ordrehåndteringssystemer. En alternativ distribusjonsmodell har de algoritmiske handelssystemene plassert på en utveksling eller en tjenesteleverandør med rask tilkobling til flere utvekslinger. Distribusjonsmodeller Det er to distribusjonsmodeller for en plattform for høy ytelse. Bedrifter kan velge å ha en blanding av de to: Datasenter for handelsfirmaet (Figur 2) Dette er den tradisjonelle modellen, hvor en fullverdig handelsplattform er utviklet og vedlikeholdt av firmaet med kommunikasjonsforbindelser til alle handelssteder. Latency varierer med hastigheten på linkene og antall humle mellom firmaet og spillestedene. Figur 2 Tradisjonell distribusjonsmodell Samlokalisering på handelsstedet (utveksling, finansielle tjenesteleverandører) (Figur 3) Handelsfirmaet utnytter sin automatiserte handelsplattform så nært som mulig for utførelsesstedene for å minimere latens. Figur 3 Hosted Deployment Model Services-Oriented Trading Architecture Vi foreslår et tjenesteorientert rammeverk for å bygge neste generasjons handelsarkitektur. Denne tilnærmingen gir et konseptuelt rammeverk og en gjennomføringsvei basert på modularisering og minimering av interdependenser. Dette rammeverket gir bedrifter en metode for å: Evaluere deres nåværende tilstand når det gjelder tjenester Prioritere tjenester basert på deres verdi til virksomheten Utvikle handelsplattformen til ønsket tilstand ved hjelp av en modulær tilnærming. Den høye ytelseshandelsarkitekturen er avhengig av følgende tjenester, som definert av servicearkitekturrammen som er representert i figur 4. Figur 4 Servicearkitekturramme for høy ytelseshandel Ultra-lav varslingstjeneste Denne tjenesten leveres av meldingsbussen, som er et programvaresystem som løser problemet med å koble til mange-til - mange applikasjoner. Systemet består av: Et sett med forhåndsdefinerte meldingsskjemaer Et sett med vanlige kommandobeskeder En delt applikasjonsinfrastruktur for å sende meldingene til mottakerne. Den delte infrastrukturen kan være basert på en meldingsmegler eller på en publiseringsmeldingsmodell. Nøkkelkravene for neste generasjons meldingsbuss er (kilde 29West): Lavest mulig ventetid (f. eks. Mindre enn 100 mikrosekunder) Stabilitet under tung belastning (f. eks. Mer enn 1,4 millioner meldinger). Kontroll og fleksibilitet (hastighetskontroll og konfigurerbare transporter) Der er innsats i bransjen for å standardisere meldingsbussen. Advanced Message Queuing Protocol (AMQP) er et eksempel på en åpen standard som er preget av J. P. Morgan Chase og støttet av en gruppe leverandører som Cisco, Envoy Technologies, Red Hat, TWIST Process Innovations, Iona, 29West og iMatix. To av de viktigste målene er å gi en enklere vei til interoperabilitet for applikasjoner skrevet på forskjellige plattformer og modularitet slik at middleware enkelt kan utvikles. I svært generelle termer er en AMQP-server analog med en e-postserver med hver utveksling som fungerer som et meldingsoverføringsmiddel og hver meldingskø som en postkasse. Bindingene definerer rutingstabellene i hvert overføringsmiddel. Utgivere sender meldinger til individuelle overføringsagenter, som deretter sender meldingene til postkasser. Forbrukerne tar meldinger fra postkasser, som skaper en kraftig og fleksibel modell som er enkel (kilde: amqp. orgtikiwikitiki-index. phppageOpenApproachWhyAMQP). Latency Monitoring Service Hovedkravene for denne tjenesten er: Måling av måling i løpet av millisekundene. Nær sanntidssynthet uten å legge latens i handelstrafikken. Mulighet for å differensiere applikasjonsbehandlingstid fra nettverkstransittidforsinkelse. Mulighet til å håndtere høymeldingshastigheter. Gi et programmatisk grensesnitt for handelsapplikasjoner for å motta latensdata, slik at algoritmiske handelsmotorer kan tilpasse seg endrede forhold Korrelere nettverkshendelser med applikasjonshendelser for feilsøkingsformål Latens kan defineres som tidsintervallet mellom når en handelsordre sendes og når samme ordre er bekreftet og handlet på av mottakeren. Å adressere latensproblemet er et komplekst problem som krever en helhetlig tilnærming som identifiserer alle kilder til latens og bruker ulike teknologier på forskjellige lag i systemet. Figur 5 viser variasjonen av komponenter som kan introdusere latens ved hvert lag av OSI-stakken. Den kartlegger også hver latent kilde med en mulig løsning og en overvåkingsløsning. Denne lagdelte tilnærmingen kan gi bedrifter en mer strukturert måte å angripe latensproblemet på, hvor hver komponent kan betraktes som en tjeneste og behandles konsekvent på tvers av firmaet. Opprettholde et nøyaktig mål på den dynamiske tilstanden til dette tidsintervallet over alternative ruter og destinasjoner kan være til stor hjelp i taktiske handelsbeslutninger. Evnen til å identifisere den eksakte plasseringen av forsinkelser, enten i kundens kantenettverk, sentralbehandlingsnav eller transaksjonsapplikasjonsnivå, bestemmer vesentlig tjenesteleverandørens evne til å oppfylle deres avtaler om handelstjenesteavtaler (SLAer). For buy-side og salgs-side skjemaer, samt for markedsdata syndikatorer, fortolkes hurtig identifisering og fjerning av flaskehalser direkte til økte handelsmuligheter og inntekter. Figur 5 Latency Management Architecture Cisco Low-Latency-overvåkingsverktøy Tradisjonelle nettverksovervåkingsverktøy opererer med minutter eller sekunder granularitet. Neste generasjons handelsplattformer, spesielt de som støtter algoritmisk handel, krever latens mindre enn 5 ms og ekstremt lave nivåer av tap av tap. På et Gigabit LAN kan en 100 ms mikroburst føre til at 10 000 transaksjoner går tapt eller for høyt forsinket. Cisco tilbyr sine kunder et utvalg av verktøy for å måle latens i et handelsmiljø: Båndbreddekvalitetsbehandling (BQM) (OEM fra Corvil) Cisco AON-basert FSMS-båndbreddekvalitetshåndterer Båndbreddekvalitetsbehandling (BQM) 4.0 er et neste generasjons nettverksapplikasjonsresultatstyringsprodukt som gjør at kundene kan overvåke og levere sitt nettverk for kontrollerte nivåer av latens og tapytelse. Selv om BQM ikke er utelukkende rettet mot handelsnettverk, gjør mikrosekundens synlighet kombinert med intelligente båndbreddeinnretninger det ideelt for disse krevende miljøene. Cisco BQM 4.0 implementerer et bredt sett av patenterte og patentanmeldte trafikkmålinger og nettverksanalyseteknologier som gir brukeren enestående synlighet og forståelse for hvordan man optimaliserer nettverket for maksimal applikasjonsytelse. Cisco BQM støttes nå på produktfamilien til Cisco Application Deployment Engine (ADE). Cisco ADE-produktfamilien er den plattformen du velger for Cisco-nettverksadministrasjonsprogrammer. BQM-fordeler Cisco BQM-mikrosynlighet er evnen til å oppdage, måle og analysere latency, jitter og tap som induserer trafikkhendelser ned til mikrosekundnivåer av granularitet med per pakkeoppløsning. Dette gjør det mulig for Cisco BQM å oppdage og bestemme virkningen av trafikkhendelser på nettverksforsinkelse, jitter og tap. Kritisk for handelsmiljøer er at BQM kan støtte latency, loss og jitter målinger enveis for både TCP og UDP (multicast) trafikk. Dette betyr at det rapporteres sømløst for både trading trafikk og markedsdata feeds. BQM tillater brukeren å spesifisere et omfattende sett med terskler (mot mikroburstaktivitet, latens, tap, jitter, utnyttelse, etc.) på alle grensesnitt. BQM driver deretter en bakgrunnsrullende pakkeopptak. Når en terskelbrudd eller annen potensiell ytelsesforstyrrelse oppstår, utløser det Cisco BQM for å lagre pakkeopptaket til disk for senere analyse. Dette gjør det mulig for brukeren å undersøke i detalj både applikasjonstrafikken som ble påvirket av ytelsesforringelse (quotthe victimsquot) og trafikken som forårsaket ytelsesforringelsen (quotthe culpritsquot). Dette kan redusere tiden brukt til å diagnostisere og løse problemer med nettverksytelse. BQM er også i stand til å gi detaljert båndbredde og kvalitet på service (QoS) policyrådgivningsanbefalinger, som brukeren direkte kan søke for å oppnå ønsket nettverksytelse. BQM målinger illustrert For å forstå forskjellen mellom noen av de mer konvensjonelle målingsteknikkene og synligheten som BQM gir, kan vi se på noen sammenligningsgrafer. I det første settet av grafer (Figur 6 og Figur 7) ser vi forskjellen mellom latens målt ved BQMs Passive Network Quality Monitor (PNQM) og latens målt ved å injisere pingpakker hvert 1. sekund inn i trafikkstrømmen. På figur 6. ser vi latency rapportert av 1 sekunders ICMP pingpakker for ekte nettverkstrafikk (den er delt med 2 for å gi et estimat for enveisforsinkelsen). Den viser forsinkelsen komfortabelt under ca. 5 ms for nesten hele tiden. Figur 6 Latency Rapportert av 1-sekunders ICMP Ping-pakker for ekte nettverkstrafikk På figur 7. ser vi latens rapportert av PNQM for samme trafikk samtidig. Her ser vi at ved å måle enveis latens av de faktiske applikasjonspakker, får vi et radikalt annet bilde. Her ser latensen seg å svinge rundt 20 ms, med sporadiske sprekker langt høyere. Forklaringen er at fordi ping bare sender pakker hvert sekund, er det helt mangler det meste av søknadstrafikken. Faktisk viser pingresultater typisk bare omgående forsinkelsesforsinkelse i stedet for realistisk søknadslatelse over hele nettverket. Figur 7 Latency Rapportert av PNQM for ekte nettverkstrafikk I det andre eksempelet (figur 8) ser vi forskjellen i rapporterte linkbelastning eller metningsnivå mellom en 5-minutters gjennomsnittsvisning og en 5 ms mikroburstvisning (BQM kan rapportere om mikroborster ned til omtrent 10-100 nanosekunds nøyaktighet). Den grønne linjen viser gjennomsnittlig utnyttelse på 5-minutters gjennomsnitt for å være lav, kanskje opptil 5 Mbitss. Den mørkeblå plottet viser 5ms mikroburstaktivitet som nå mellom 75 Mbitss og 100 Mbitss, LAN-hastigheten effektivt. BQM viser dette nivået for granularitet for alle applikasjoner, og det gir også klare bestemmelser for å gjøre det mulig for brukeren å kontrollere eller nøytralisere disse mikrobristene. Figur 8 Forskjell i rapportert lenkebelastning mellom en 5-minutters gjennomsnittlig visning og en 5 ms Microburst View-BQM-distribusjon i handelsnettverket Figur 9 viser en typisk BQM-distribusjon i et handelsnettverk. Figur 9 Typisk BQM-distribusjon i et handelsnettverk BQM kan da brukes til å svare på disse typer spørsmål: Er noen av mine Gigabit LAN-kjernekoblinger mettet i mer enn X millisekunder. Er dette forårsaker tap Hvilke koblinger vil mest ha nytte av en oppgradering til Etherchannel eller 10 Gigabit-hastigheter Hvilken applikasjonstrafikk forårsaker metning av mine 1 Gigabit-koblinger Er noen av markedsdataene opplever end-to-end-tap Hvor mye ekstra ventetid gjør failover datasenteropplevelsen Er denne linken riktig dimensjonert for å håndtere mikroburst Er mine forhandlere får lav latens oppdateringer fra markedet data distribusjonslaget Er de se noen forsinkelser større enn X millisekunder Å kunne svare på disse spørsmålene sparer både tid og penger i å drive handelsnettverket. BQM er et viktig verktøy for å få synlighet i markedsdata og handelsmiljøer. Det gir granulære end-to-end latensmålinger i komplekse infrastrukturer som opplever stor volumdatabevegelse. Effektivt å detektere mikroburst i under millisekundnivå og motta ekspertanalyse på en bestemt hendelse er uvurderlig for handelsgulvarkitekter. Anbefalingsanbefalinger for smart båndbredde, for eksempel dimensjonering og hva-om-analyse, gir større smidighet for å reagere på volatile markedsforhold. Da eksplosjonen av algoritmisk handel og økende meldingsrater fortsetter, gir BQM, kombinert med QoS-verktøyet, muligheten til å implementere QoS-politikk som kan beskytte kritiske handelsapplikasjoner. Cisco Financial Services Latency Monitoring Solution Cisco og Trading Metrics har samarbeidet om latency overvåking løsninger for FIX bestillingsflyt og markedsdata overvåking. Cisco AON-teknologi er grunnlaget for en ny klasse av nettverksbaserte produkter og løsninger som hjelper til med å slå sammen intelligente nettverk med applikasjonsinfrastruktur, basert på enten serviceorienterte eller tradisjonelle arkitekturer. Trading Metrics er en ledende leverandør av analytics programvare for nettverksinfrastruktur og applikasjons latens overvåking formål (tradingmetrics). Cisco AON Financial Services Latency Monitoring Solution (FSMS) korrelerte to typer hendelser ved observasjonspunktet: Nettverkshendelser korrelert direkte med sammenfallende applikasjonsmeldingshåndtering Handelsordestrøm og matchende markedsoppdateringshendelser Ved hjelp av tidsstemmer hevdet ved fangstpunktet i nettverk, real-time analyse av disse korrelerte datastrømmene tillater nøyaktig identifisering av flaskehalser på tvers av infrastrukturen mens en handel utføres eller markedsdata distribueres. Ved å overvåke og måle latens tidlig i syklusen, kan finansielle selskaper ta bedre beslutninger om hvilket nettverkstjeneste og hvilken formidler, marked eller motpartyto velger for ruting av handelsordrer. På samme måte gir denne kunnskapen mer strømlinjeformet tilgang til oppdaterte markedsdata (aksjekurser, økonomiske nyheter, etc.), som er et viktig utgangspunkt for å starte, trekke seg fra eller forfølge markedsmuligheter. Komponentene i løsningen er: AON-maskinvare i tre formfaktorer: AON-nettverksmodul for Cisco 2600280037003800-rutere AON Blade for Cisco Catalyst 6500-serien AON 8340 Appliance Trading Metrics MampA 2.0-programvaren, som gir overvåkings - og varslingsprogrammet, viser latensgrafer på et dashbord, og utsteder varsler når avvik skjer (tradingmetricsTMbrochure. pdf). Figur 10 AON-basert FIX-latensovervåking Cisco IP SLA Cisco IP SLA er et innebygd nettverksadministrasjonsverktøy i Cisco IOS som gjør det mulig for rutere og brytere å generere syntetiske trafikkstrømmer som kan måles for latens, jitter, pakktap og andre kriterier (ciscogoipsla ). To sentrale begreper er kilden til den genererte trafikken og målet. Begge disse driver en IP SLA quotresponder, citer som har ansvaret for å tidsstempelere kontrolltrafikken før den hentes og returneres av målet (for en rundtursmåling). Ulike typer trafikk kan hentes i IP SLA, og de er rettet mot ulike beregninger og målrettes mot ulike tjenester og applikasjoner. UDP-jitter-operasjonen brukes til å måle enveis - og returforsinkelse og rapportere variasjoner. Siden trafikken er tidsstemplet på både sende - og mål-enheter som bruker responder-funksjonen, er omdrejningsforsinkelsen karakterisert som deltaet mellom de to tidsstemplene. En ny funksjon ble introdusert i IOS 12.3 (14) T, IP SLA Sub Millisecond Reporting, som gjør at tidsstempler kan vises med en oppløsning i mikrosekunder, og gir dermed et nivå av granularitet som ikke tidligere er tilgjengelig. Denne nye funksjonen har nå gjort IP SLA relevant for campusnettverk, hvor nettverksforsinkelsen vanligvis ligger i området 300-800 mikrosekunder, og evnen til å oppdage trender og pigger (korte trender) basert på mikrosekundgrannhetsteller er et krav for at kunder er engasjert i tid - følsomme elektroniske handelsmiljøer. Som et resultat blir IP SLA nå vurdert av betydelige antall finansielle organisasjoner, da de alle står overfor krav til: Rapporter baseline latens til brukerne. Trend baseline latens over tid Reager raskt på trafikkspor som forårsaker endringer i rapportert latens Sub - millisekondrapportering er nødvendig for disse kundene, siden mange campus og backbones leverer for øyeblikket under et sekund av latens på flere bryterhopper. Elektroniske handelsmiljøer har generelt arbeidet for å eliminere eller minimere alle områder av enhet og nettverksforsinkelse for å levere rask ordreutvikling til virksomheten. Rapportering om at nettverksresponstider er angitt under en millisekund, er ikke lenger tilstrekkelig, korrelasjonen til latensmålinger rapportert over et nettverkssegment eller ryggrad må være nærmere 300-800 mikrosekunder med en grad av oppløsning på 100 igrave sekunder. IP SLA har nylig lagt til støtte for IP multicast teststrømmer, som kan måle markedsdata latens. En typisk nettverkstopologi er vist i Figur 11 med IP SLA-skygge rutere, kilder og respondenter. Figure 11 IP SLA Deployment Computing Services Computing services cover a wide range of technologies with the goal of eliminating memory and CPU bottlenecks created by the processing of network packets. Trading applications consume high volumes of market data and the servers have to dedicate resources to processing network traffic instead of application processing. Transport processingAt high speeds, network packet processing can consume a significant amount of server CPU cycles and memory. An established rule of thumb states that 1Gbps of network bandwidth requires 1 GHz of processor capacity (source Intel white paper on IO acceleration inteltechnologyioacceleration306517.pdf ). Intermediate buffer copyingIn a conventional network stack implementation, data needs to be copied by the CPU between network buffers and application buffers. This overhead is worsened by the fact that memory speeds have not kept up with increases in CPU speeds. For example, processors like the Intel Xeon are approaching 4 GHz, while RAM chips hover around 400MHz (for DDR 3200 memory) (source Intel inteltechnologyioacceleration306517.pdf ). Context switchingEvery time an individual packet needs to be processed, the CPU performs a context switch from application context to network traffic context. This overhead could be reduced if the switch would occur only when the whole application buffer is complete. Figure 12 Sources of Overhead in Data Center Servers TCP Offload Engine (TOE)Offloads transport processor cycles to the NIC. Moves TCPIP protocol stack buffer copies from system memory to NIC memory. Remote Direct Memory Access (RDMA)Enables a network adapter to transfer data directly from application to application without involving the operating system. Eliminates intermediate and application buffer copies (memory bandwidth consumption). Kernel bypass Direct user-level access to hardware. Dramatically reduces application context switches. Figure 13 RDMA and Kernel Bypass InfiniBand is a point-to-point (switched fabric) bidirectional serial communication link which implements RDMA, among other features. Cisco offers an InfiniBand switch, the Server Fabric Switch (SFS): ciscoapplicationpdfenusguestnetsolns500c643cdccont0900aecd804c35cb. pdf. Figure 14 Typical SFS Deployment Trading applications benefit from the reduction in latency and latency variability, as proved by a test performed with the Cisco SFS and Wombat Feed Handlers by Stac Research: Application Virtualization Service De-coupling the application from the underlying OS and server hardware enables them to run as network services. One application can be run in parallel on multiple servers, or multiple applications can be run on the same server, as the best resource allocation dictates. This decoupling enables better load balancing and disaster recovery for business continuance strategies. The process of re-allocating computing resources to an application is dynamic. Using an application virtualization system like Data Synapses GridServer, applications can migrate, using pre-configured policies, to under-utilized servers in a supply-matches-demand process (wwwworkworldsupp2005ndc1022105virtual. htmlpage2 ). There are many business advantages for financial firms who adopt application virtualization: Faster time to market for new products and services Faster integration of firms following merger and acquisition activity Increased application availability Better workload distribution, which creates more quothead roomquot for processing spikes in trading volume Operational efficiency and control Reduction in IT complexity Currently, application virtualization is not used in the trading front-office. One use-case is risk modeling, like Monte Carlo simulations. As the technology evolves, it is conceivable that some the trading platforms will adopt it. Data Virtualization Service To effectively share resources across distributed enterprise applications, firms must be able to leverage data across multiple sources in real-time while ensuring data integrity. With solutions from data virtualization software vendors such as Gemstone or Tangosol (now Oracle), financial firms can access heterogeneous sources of data as a single system image that enables connectivity between business processes and unrestrained application access to distributed caching. The net result is that all users have instant access to these data resources across a distributed network (gridtoday030210101061.html ). This is called a data grid and is the first step in the process of creating what Gartner calls Extreme Transaction Processing (XTP) (gartnerDisplayDocumentrefgsearchampid500947 ). Technologies such as data and applications virtualization enable financial firms to perform real-time complex analytics, event-driven applications, and dynamic resource allocation. One example of data virtualization in action is a global order book application. An order book is the repository of active orders that is published by the exchange or other market makers. A global order book aggregates orders from around the world from markets that operate independently. The biggest challenge for the application is scalability over WAN connectivity because it has to maintain state. Todays data grids are localized in data centers connected by Metro Area Networks (MAN). This is mainly because the applications themselves have limitsthey have been developed without the WAN in mind. Figure 15 GemStone GemFire Distributed Caching Before data virtualization, applications used database clustering for failover and scalability. This solution is limited by the performance of the underlying database. Failover is slower because the data is committed to disc. With data grids, the data which is part of the active state is cached in memory, which reduces drastically the failover time. Scaling the data grid means just adding more distributed resources, providing a more deterministic performance compared to a database cluster. Multicast Service Market data delivery is a perfect example of an application that needs to deliver the same data stream to hundreds and potentially thousands of end users. Market data services have been implemented with TCP or UDP broadcast as the network layer, but those implementations have limited scalability. Using TCP requires a separate socket and sliding window on the server for each recipient. UDP broadcast requires a separate copy of the stream for each destination subnet. Both of these methods exhaust the resources of the servers and the network. The server side must transmit and service each of the streams individually, which requires larger and larger server farms. On the network side, the required bandwidth for the application increases in a linear fashion. For example, to send a 1 Mbps stream to 1000recipients using TCP requires 1 Gbps of bandwidth. IP multicast is the only way to scale market data delivery. To deliver a 1 Mbps stream to 1000 recipients, IP multicast would require 1 Mbps. The stream can be delivered by as few as two serversone primary and one backup for redundancy. There are two main phases of market data delivery to the end user. In the first phase, the data stream must be brought from the exchange into the brokerages network. Typically the feeds are terminated in a data center on the customer premise. The feeds are then processed by a feed handler, which may normalize the data stream into a common format and then republish into the application messaging servers in the data center. The second phase involves injecting the data stream into the application messaging bus which feeds the core infrastructure of the trading applications. The large brokerage houses have thousands of applications that use the market data streams for various purposes, such as live trades, long term trending, arbitrage, etc. Many of these applications listen to the feeds and then republish their own analytical and derivative information. For example, a brokerage may compare the prices of CSCO to the option prices of CSCO on another exchange and then publish ratings which a different application may monitor to determine how much they are out of synchronization. Figure 16 Market Data Distribution Players The delivery of these data streams is typically over a reliable multicast transport protocol, traditionally Tibco Rendezvous. Tibco RV operates in a publish and subscribe environment. Each financial instrument is given a subject name, such as CSCO. last. Each application server can request the individual instruments of interest by their subject name and receive just a that subset of the information. This is called subject-based forwarding or filtering. Subject-based filtering is patented by Tibco. A distinction should be made between the first and second phases of market data delivery. The delivery of market data from the exchange to the brokerage is mostly a one-to-many application. The only exception to the unidirectional nature of market data may be retransmission requests, which are usually sent using unicast. The trading applications, however, are definitely many-to-many applications and may interact with the exchanges to place orders. Figure 17 Market Data Architecture Design Issues Number of GroupsChannels to Use Many application developers consider using thousand of multicast groups to give them the ability to divide up products or instruments into small buckets. Normally these applications send many small messages as part of their information bus. Usually several messages are sent in each packet that are received by many users. Sending fewer messages in each packet increases the overhead necessary for each message. In the extreme case, sending only one message in each packet quickly reaches the point of diminishing returnsthere is more overhead sent than actual data. Application developers must find a reasonable compromise between the number of groups and breaking up their products into logical buckets. Consider, for example, the Nasdaq Quotation Dissemination Service (NQDS). The instruments are broken up alphabetically: This approach allows for straight forward networkapplication management, but does not necessarily allow for optimized bandwidth utilization for most users. A user of NQDS that is interested in technology stocks, and would like to subscribe to just CSCO and INTL, would have to pull down all the data for the first two groups of NQDS. Understanding the way users pull down the data and then organize it into appropriate logical groups optimizes the bandwidth for each user. In many market data applications, optimizing the data organization would be of limited value. Typically customers bring in all data into a few machines and filter the instruments. Using more groups is just more overhead for the stack and does not help the customers conserve bandwidth. Another approach might be to keep the groups down to a minimum level and use UDP port numbers to further differentiate if necessary. The other extreme would be to use just one multicast group for the entire application and then have the end user filter the data. In some situations this may be sufficient. Intermittent Sources A common issue with market data applications are servers that send data to a multicast group and then go silent for more than 3.5 minutes. These intermittent sources may cause trashing of state on the network and can introduce packet loss during the window of time when soft state and then hardware shorts are being created. PIM-Bidir or PIM-SSM The first and best solution for intermittent sources is to use PIM-Bidir for many-to-many applications and PIM-SSM for one-to-many applications. Both of these optimizations of the PIM protocol do not have any data-driven events in creating forwarding state. That means that as long as the receivers are subscribed to the streams, the network has the forwarding state created in the hardware switching path. Intermittent sources are not an issue with PIM-Bidir and PIM-SSM. Null Packets In PIM-SM environments a common method to make sure forwarding state is created is to send a burst of null packets to the multicast group before the actual data stream. The application must efficiently ignore these null data packets to ensure it does not affect performance. The sources must only send the burst of packets if they have been silent for more than 3 minutes. A good practice is to send the burst if the source is silent for more than a minute. Many financials send out an initial burst of traffic in the morning and then all well-behaved sources do not have problems. Periodic Keepalives or Heartbeats An alternative approach for PIM-SM environments is for sources to send periodic heartbeat messages to the multicast groups. This is a similar approach to the null packets, but the packets can be sent on a regular timer so that the forwarding state never expires. S, G Expiry Timer Finally, Cisco has made a modification to the operation of the S, G expiry timer in IOS. There is now a CLI knob to allow the state for a S, G to stay alive for hours without any traffic being sent. The (S, G) expiry timer is configurable. This approach should be considered a workaround until PIM-Bidir or PIM-SSM is deployed or the application is fixed. RTCP Feedback A common issue with real time voice and video applications that use RTP is the use of RTCP feedback traffic. Unnecessary use of the feedback option can create excessive multicast state in the network. If the RTCP traffic is not required by the application it should be avoided. Fast Producers and Slow Consumers Today many servers providing market data are attached at Gigabit speeds, while the receivers are attached at different speeds, usually 100Mbps. This creates the potential for receivers to drop packets and request re-transmissions, which creates more traffic that the slowest consumers cannot handle, continuing the vicious circle. The solution needs to be some type of access control in the application that limits the amount of data that one host can request. QoS and other network functions can mitigate the problem, but ultimately the subscriptions need to be managed in the application. Tibco Heartbeats TibcoRV has had the ability to use IP multicast for the heartbeat between the TICs for many years. However, there are some brokerage houses that are still using very old versions of TibcoRV that use UDP broadcast support for the resiliency. This limitation is often cited as a reason to maintain a Layer 2 infrastructure between TICs located in different data centers. These older versions of TibcoRV should be phased out in favor of the IP multicast supported versions. Multicast Forwarding Options PIM Sparse Mode The standard IP multicast forwarding protocol used today for market data delivery is PIM Sparse Mode. It is supported on all Cisco routers and switches and is well understood. PIM-SM can be used in all the network components from the exchange, FSP, and brokerage. There are, however, some long-standing issues and unnecessary complexity associated with a PIM-SM deployment that could be avoided by using PIM-Bidir and PIM-SSM. These are covered in the next sections. The main components of the PIM-SM implementation are: PIM Sparse Mode v2 Shared Tree (spt-threshold infinity) A design option in the brokerage or in the exchange.
Comments
Post a Comment