Monday 25 December 2017

تتحرك من المتوسط - التجميع


الأدوات الحسابية على نحو مماثل، داتافريم يحتوي على طريقة كوف لحساب التباينات الزوجية بين السلسلة في داتافريم، وأيضا استبعاد قيم نانول. وبافتراض أن البيانات المفقودة مفقودة عشوائيا، فإن ذلك يؤدي إلى تقدير لمصفوفة التباين المشترك غير المتحيز. ومع ذلك، قد لا يكون هذا التقدير مقبولا بالنسبة لكثير من التطبيقات لأن مصفوفة التباين المقدرة غير مضمونة لتكون شبه محددة. وهذا يمكن أن يؤدي إلى ارتباطات تقديرية لها قيم مطلقة أكبر من واحد، و أن مصفوفة التباين غير قابل للانعكاس. انظر تقدير مصفوفات التغاير لمزيد من التفاصيل. كما يدعم DataFrame. cov كلمة رئيسية اختيارية مينبيريودس تحدد الحد الأدنى المطلوب من الملاحظات لكل زوج عمود من أجل الحصول على نتيجة صالحة. يتم تحديد الأوزان المستخدمة في النافذة بواسطة الكلمة الرئيسية وينتيب. قائمة أنواع المعترف بها هي: بوكسكار تريانغ بلاكمان هامنج بارتليت بارزن بوهمان بلاكمانهاريس نوتال بارثان كايزر (يحتاج بيتا) غاوسيان (يحتاج ستد) جينيرالغوسيان (يحتاج السلطة، العرض) سليبيان (يحتاج العرض). لاحظ أن نافذة بوكسكار تعادل يعني (). بالنسبة لبعض وظائف النوافذ، يجب تحديد معلمات إضافية: ل. سوم () مع وينتيب. لا يوجد التطبيع القيام به إلى الأوزان للنافذة. تمرير الأوزان المخصصة من 1، 1، 1 سوف تسفر عن نتيجة مختلفة من تمرير الأوزان من 2، 2، 2. على سبيل المثال. عند تمرير وينتيب بدلا من تحديد أوزان صريحة، الأوزان هي بالفعل تطبيع بحيث أكبر وزن هو 1. على النقيض من ذلك، فإن طبيعة. mean () حساب بحيث يتم تطبيع الأوزان فيما يتعلق بعضها البعض. أوزان 1، 1، 1 و 2، 2، 2 تعطي نفس النتيجة. وقت علم المتداول الجديد في الإصدار 0.19.0. الجديد في الإصدار 0.19.0 هي القدرة على تمرير الإزاحة (أو قابلة للتحويل) إلى. rolling () طريقة ويكون لها إنتاج نوافذ متغيرة الحجم استنادا إلى نافذة الوقت مرت. لكل نقطة زمنية، وهذا يشمل جميع القيم السابقة التي تحدث داخل دلتا الوقت المشار إليها. ويمكن أن يكون هذا مفيدا بشكل خاص لمؤشر الترددات غير المنتظمة. هذا هو مؤشر الترددات العادية. استخدام معامل نافذة عدد صحيح يعمل على لفة على طول تردد النافذة. ويتيح تحديد الإزاحة مواصفات أكثر سهولة للتكرار المتداول. باستخدام مؤشر غير منتظم، ولكن لا يزال رتابة، المتداول مع نافذة عدد صحيح لا نقل أي حساب خاص. استخدام مواصفات الوقت يولد نوافذ متغيرة لهذه البيانات متفرق. وعلاوة على ذلك، نسمح الآن اختياري على المعلمة لتحديد عمود (بدلا من الافتراضي الفهرس) في داتافريم. الوقت المتداول المتداول مقابل إعادة أخذ العينات باستخدام. rolling () مع فهرس يستند إلى الوقت يشبه إلى حد كبير إعادة اختزال. كلاهما يعمل وأداء عمليات الاختزال على كائنات الباندا بفهرسة الوقت. عند استخدام. rolling () مع إزاحة. الإزاحة هي دلتا الوقت. اتخاذ نافذة في الوراء في الوقت تبحث، وتجميع كل القيم في تلك النافذة (بما في ذلك نقطة النهاية، ولكن ليس نقطة البداية). هذه هي القيمة الجديدة عند هذه النقطة في النتيجة. هذه هي النوافذ ذات الحجم المتغير في مساحة زمنية لكل نقطة من المدخلات. سوف تحصل على نفس الحجم نتيجة المدخلات. عند استخدام. resample () مع إزاحة. إنشاء مؤشر جديد هو تواتر الإزاحة. ولكل حاوية تردد، يتم تجميع النقاط المجمعة من المدخلات داخل نافذة النظر في الوقت المناسب التي تقع في تلك الحاوية. وتكون نتيجة هذا التجميع ناتج نقطة التردد هذه. النوافذ هي حجم حجم ثابت في مساحة التردد. سيكون لديك نتيجة شكل تردد منتظم بين دقيقة والحد الأقصى للكائن المدخلات الأصلية. كي تختصر. المتداول () عملية إطار يستند إلى الوقت، بينما. resample () عملية إطار يستند إلى تردد. توسيط ويندوز يتم تعيين التسميات بشكل افتراضي على الحافة اليسرى للنافذة، ولكن تتوفر كلمة رئيسية مركزية بحيث يمكن تعيين التصنيفات في المركز. دوال ويندو فونكتيونس كوف () و كور () يمكن حساب إحصاءات نافذة متحركة حول سلسلتين أو أي مجموعة من داتافراميزيريز أو داتافرامداتافريم. هنا هو السلوك في كل حالة: سلسلتين. حساب إحصاء الاقتران. DataFrameSeries. حساب الإحصاءات لكل عمود من داتافريم مع سلسلة مرت، وبالتالي إرجاع داتافريم. DataFrameDataFrame. افتراضيا حساب الإحصائية لمطابقة أسماء الأعمدة، وإرجاع داتافريم. إذا تم تمرير وسيطة الكلمة الرئيسية بيرويزترو ثم يحسب الإحصائية لكل زوج من الأعمدة، فارجع لوحة العناصر التي هي التواريخ المعنية (انظر القسم التالي). الحوسبة المتغايرات المتداخلة الازدواجية والارتباطات في تحليل البيانات المالية وغيرها من المجالات it8217s المشتركة لحساب التباين والمصفوفات الارتباط لمجموعة من السلاسل الزمنية. وكثيرا ما يكون المرء مهتما أيضا بتباين نافذة النافذة ومصفوفات الارتباط. ويمكن القيام بذلك عن طريق تمرير وسيطة الكلمة الرئيسية الزوجية، والتي في حالة مدخلات داتافريم سوف تسفر عن لوحة العناصر التي هي التواريخ المعنية. وفي حالة وسيطة داتافريم واحدة، يمكن حذف الوسيطة الزوجية: يتم تجاهل القيم المفقودة ويتم حساب كل إدخال باستخدام الملاحظات الكاملة الزوجية. يرجى الاطلاع على قسم التباين في التحذيرات المرتبطة بهذه الطريقة لحساب التباين المشترك ومصفوفات الارتباط. وبصرف النظر عن عدم وجود معلمة نافذة، هذه الوظائف لها نفس واجهات مثل نظرائهم. rolling. مثل أعلاه، المعلمات التي يقبلونها جميعا هي: مينبيريودس. عتبة نقاط البيانات غير الفارغة المطلوبة. الافتراضات إلى الحد الأدنى اللازم لحساب الإحصائية. لا نانس سيتم إخراج مرة واحدة وقد شوهدت نقاط البيانات غير فارغة نول. مركز. منطقي، ما إذا كان سيتم تعيين التسميات في مركز (الافتراضي هو فالس) إخراج أساليب. rolling و. إكسباندينغ لا نان إذا كان هناك على الأقل مينبيريودس القيم غير فارغة في الإطار الحالي. هذا يختلف عن كومسوم. cumprod. cummax. و الكمون. التي تعود نان في الإخراج أينما واجه نان في المدخلات. وستكون إحصائية النافذة الآخذة في الاتساع أكثر استقرارا (وأقل استجابة) من نظيرتها المتداول النافذة حيث أن حجم النافذة المتزايد يقلل من التأثير النسبي لنقطة بيانات فردية. وكمثال على ذلك، هنا هو الناتج المتوسط ​​() لمجموعة بيانات السلاسل الزمنية السابقة: ويندوز المرجح أضعافا مضاعفة مجموعة من الوظائف ذات الصلة هي إصدارات مرجحة أضعافا مضاعفة للعديد من الإحصائيات المذكورة أعلاه. يتم الوصول إلى واجهة مماثلة ل. rolling و. إكسباندينغ من خلال طريقة. ewm لتلقي كائن إوم. يتم توفير عدد من الطرق المتوسعة إو (المرجحة أضعافا مضاعفة): داكس يتضمن بعض وظائف التجميع الإحصائية، مثل المتوسط ​​والتباين والانحراف المعياري. الحسابات الإحصائية النموذجية الأخرى تتطلب منك كتابة تعبيرات داكس أطول. إكسل، من وجهة النظر هذه، لديها لغة أكثر ثراء بكثير. الأنماط الإحصائية هي عبارة عن مجموعة من الحسابات الإحصائية المشتركة: الوسيط، المتوسط، المتوسط ​​المتحرك، النسبة المئوية، والربع. نود أن نشكر كولن بانفيلد، جيرارد بروكل، وخافيير غيلن، التي بلهمت بعض بلوق الأنماط التالية. مثال النمط الأساسي الصيغ في هذا النمط هي الحلول لحسابات إحصائية محددة. يمكنك استخدام وظائف داكس القياسية لحساب متوسط ​​(متوسط ​​حسابي) لمجموعة من القيم. معدل . بإرجاع متوسط ​​كل الأرقام في عمود رقمي. أفيراجيا. بإرجاع متوسط ​​كل الأرقام في عمود، مع التعامل مع كل من القيم النصية وغير الرقمية (القيم النصية غير الرقمية والفاخرة عد 0). أفيراجيكس. حساب متوسط ​​على تعبير تقييمها على جدول. المتوسط ​​المتحرك المتوسط ​​المتحرك هو حساب لتحليل نقاط البيانات من خلال إنشاء سلسلة من المتوسطات لمجموعات فرعية مختلفة من مجموعة البيانات الكاملة. يمكنك استخدام العديد من تقنيات داكس لتنفيذ هذا الحساب. أبسط تقنية تستخدم أفيراجيكس، وتكرار جدول من التفاصيل المطلوبة وحساب لكل تكرار التعبير الذي يولد نقطة بيانات واحدة لاستخدامها في المتوسط. على سبيل المثال، تحسب الصيغة التالية المتوسط ​​المتحرك لآخر 7 أيام، على افتراض أنك تستخدم جدول تاريخ في نموذج البيانات. باستخدام أفيراجيكس، يمكنك تلقائيا حساب التدبير في كل مستوى تحبب. عند استخدام مقياس يمكن تجميعها (مثل سوم)، ثم نهج آخر يعتمد على كالكولاتيماي يكون أسرع. يمكنك العثور على هذا النهج البديل في نمط كامل من المتوسط ​​المتحرك. يمكنك استخدام الدالات داكس القياسية لحساب تباين مجموعة من القيم. VAR. S. ترجع تباين القيم في عمود يمثل عينة نموذجية. VAR. P. ترجع تباين القيم في عمود يمثل مجموع السكان. VARX. S. ترجع تباين تعبير يتم تقييمه عبر جدول يمثل عينة نموذجية. VARX. P. ترجع تباين تعبير يتم تقييمه عبر جدول يمثل مجموع السكان. الانحراف المعياري يمكنك استخدام وظائف داكس القياسية لحساب الانحراف المعياري لمجموعة من القيم. STDEV. S. ترجع الانحراف المعياري للقيم في عمود يمثل عينة نموذجية. STDEV. P. ترجع الانحراف المعياري للقيم في عمود يمثل مجموع السكان. STDEVX. S. ترجع الانحراف المعياري للتعبير الذي تم تقييمه عبر جدول يمثل عينة نموذجية. STDEVX. P. ترجع الانحراف المعياري للتعبير الذي تم تقييمه عبر جدول يمثل مجموع السكان. والمتوسط ​​هو القيمة العددية التي تفصل النصف الأعلى من السكان عن النصف السفلي. إذا كان هناك عدد فردي من الصفوف، الوسيط هو القيمة الوسطى (فرز الصفوف من أدنى قيمة إلى أعلى قيمة). إذا كان هناك عدد من الصفوف، فهو متوسط ​​القيمتين المتوسطتين. وتتجاهل الصيغة القيم الفارغة التي لا تعتبر جزءا من السكان. والنتيجة متطابقة مع وظيفة ميديان في إكسيل. ويبين الشكل 1 مقارنة بين النتيجة التي تم إرجاعها بواسطة إكسيل وصيغة داكس المقابلة لحساب الوسط. الشكل 1 مثال لحساب متوسط ​​في إكسيل و داكس. الوضع هو القيمة التي تظهر في معظم الأحيان في مجموعة من البيانات. وتتجاهل الصيغة القيم الفارغة التي لا تعتبر جزءا من السكان. وتكون النتيجة متطابقة مع الدالة مود و MODE. SNGL في إكسيل، التي تعيد فقط القيمة الدنيا عندما تكون هناك أوضاع متعددة في مجموعة القيم التي تم النظر فيها. ستقوم الدالة إكسيل MODE. MULT بإرجاع كافة الأوضاع، ولكن لا يمكنك تنفيذها كمقياس في داكس. يقارن الشكل 2 النتيجة التي تم إرجاعها بواسطة إكسيل مع صيغة داكس المقابلة لحساب الوضع. الشكل 2 مثال على حساب الوضع في إكسيل و داكس. النسبة المئوية النسبة المئوية هي القيمة التي تقل عنها نسبة معينة من القيم في المجموعة. وتتجاهل الصيغة القيم الفارغة التي لا تعتبر جزءا من السكان. يتطلب الحساب في داكس عدة خطوات، الموضحة في المقطع "نمط كامل"، الذي يظهر كيفية الحصول على نفس نتائج دالات إكسيل بيرسنتيل و PERCENTILE. INC و PERCENTILE. EXC. أما الرباعيات فهي ثلاث نقاط تقسم مجموعة من القيم إلى أربع مجموعات متساوية، تتألف كل مجموعة منها من ربع البيانات. يمكنك حساب القطاعات الرباعية باستخدام النمط المئوي، بعد هذه المراسلات: الربع الأول الربع السفلي الربع الخامس والعشرون المئوي الربع الثاني المتوسط ​​نصف الخمسون الربع الثالث الربع الثالث الربع الخامس 75 النسبة المئوية نمط كامل بعض الحسابات الإحصائية لها وصف أطول للنمط الكامل، لأن قد يكون لديك تطبيقات مختلفة اعتمادا على نماذج البيانات وغيرها من المتطلبات. المتوسط ​​المتحرك عادة ما تقيم المتوسط ​​المتحرك عن طريق الرجوع إلى مستوى التفصيل اليومي. النموذج العام للصيغة التالية له هذه العلامات: لنتومبيروفايسغت هو عدد الأيام للمتوسط ​​المتحرك. لتاتيكولومنغت هو عمود التاريخ لجدول التاريخ إذا كان لديك عمود واحد أو عمود التاريخ الذي يحتوي على قيم إذا لم يكن هناك جدول تاريخ منفصل. لتماسوريجت هو مقياس لحساب كمتوسط ​​متحرك. أبسط نمط يستخدم الدالة أفيراجيكس في داكس، والتي تأخذ في الاعتبار فقط الأيام التي توجد قيمة لها. كبديل، يمكنك استخدام القالب التالي في نماذج البيانات بدون جدول تاريخ ومع مقياس يمكن تجميعه (مثل سوم) على مدار الفترة التي تم النظر فيها. تعتبر الصيغة السابقة يوم مع عدم وجود بيانات المقابلة كمقياس 0 قيمة. يمكن أن يحدث هذا فقط عندما يكون لديك جدول تاريخ منفصل، والذي قد يحتوي على أيام لا توجد معاملات مقابلة لها. يمكنك إصلاح القاسم للمتوسط ​​باستخدام عدد الأيام التي توجد فيها معاملات باستخدام النمط التالي حيث: لاتفاكتليغت هو الجدول المتعلق بجدول التاريخ ويحتوي على قيم محسوبة بواسطة المقياس. قد تستخدم الدالات داتسبيتوين أو داتيسينبيريود بدلا من فيلتر ولكن هذه تعمل فقط في جدول تاريخ عادي، بينما يمكنك تطبيق النمط الموضحة أعلاه أيضا إلى جداول التاريخ غير العادية والنماذج التي ليس لها جدول تاريخ. على سبيل المثال، النظر في النتائج المختلفة التي تنتجها التدابير التالية اثنين. في الشكل 3، يمكنك أن ترى أنه لا توجد مبيعات في 11 سبتمبر 2005. ومع ذلك، يتم تضمين هذا التاريخ في الجدول التاريخ وبالتالي، هناك 7 أيام (من 11 سبتمبر إلى 17 سبتمبر) التي لديها 6 أيام فقط مع البيانات. الشكل 3 مثال على حساب متوسط ​​متحرك مع مراعاة وتجاهل التواريخ بدون مبيعات. قياس المتوسط ​​المتحرك 7 أيام لديه عدد أقل بين 11 سبتمبر و 17 سبتمبر، لأنه يعتبر 11 سبتمبر يوما مع 0 المبيعات. إذا كنت ترغب في تجاهل أيام مع عدم وجود مبيعات، ثم استخدام مقياس المتوسط ​​المتحرك 7 أيام لا صفر. قد يكون هذا هو النهج الصحيح عندما يكون لديك جدول تاريخ كامل ولكنك تريد تجاهل الأيام بدون معاملات. باستخدام صيغة المتوسط ​​المتحرك 7 أيام، تكون النتيجة صحيحة لأن أفيراجيكس تأخذ في الاعتبار القيم غير الفارغة تلقائيا. ضع في اعتبارك أنك قد تحسن أداء المتوسط ​​المتحرك من خلال الاستمرار في القيمة في عمود محسوب من جدول يحتوي على التفاصيل المطلوبة، مثل التاريخ أو التاريخ والمنتج. ومع ذلك، فإن نهج الحساب الديناميكي مع مقياس يوفر القدرة على استخدام معلمة لعدد أيام المتوسط ​​المتحرك (على سبيل المثال استبدال لتنومبروفيدسغت مع مقياس تنفيذ نمط جدول المعلمات). الوسيط يتطابق مع النسبة المئوية 50، والتي يمكنك حسابها باستخدام نمط النسبة المئوية. ومع ذلك، فإن نمط المتوسط ​​يسمح لك لتحسين وتبسيط الحساب الوسيط باستخدام مقياس واحد، بدلا من عدة تدابير المطلوبة من قبل نمط النسبة المئوية. يمكنك استخدام هذا النهج عند حساب الوسيط للقيم المضمنة في لتفالويكولومنغت كما هو موضح أدناه: لتحسين الأداء، قد تحتاج إلى الاستمرار في قيمة مقياس في عمود محسوب، إذا كنت ترغب في الحصول على متوسط ​​لنتائج وهو مقياس في نموذج البيانات. ومع ذلك، قبل القيام بهذا التحسين، يجب تنفيذ حساب ميديانكس استنادا إلى القالب التالي، باستخدام هذه العلامات: لترانولاريتيتليغت هو الجدول الذي يحدد دقة الحساب. على سبيل المثال، يمكن أن يكون جدول التاريخ إذا كنت تريد حساب متوسط ​​مقياس محسوب على مستوى اليوم، أو يمكن أن تكون قيم (8216DateYearMonth) إذا كنت تريد حساب متوسط ​​مقياس محسوب على مستوى الشهر. لتماسوريجت هو مقياس لحساب لكل صف من لترانولاريتيتابلغت لحساب المتوسط. لتماسوريتابليغت هو الجدول الذي يحتوي على البيانات المستخدمة من قبل لتماسوريغت. على سبيل المثال، إذا كان لترانولاريتيبتليغت بعدا مثل 8216Date8217، ثم لتماسوريتابليغت سيكون 8216Internet Sales8217 التي تحتوي على العمود كمية المبيعات الإنترنت لخصها الإنترنت إجمالي قياس المبيعات. على سبيل المثال، يمكنك كتابة متوسط ​​إجمالي مبيعات الإنترنت لجميع العملاء في أدفنتور وركس على النحو التالي: تلميح النموذج التالي: يستخدم لإزالة الصفوف من لترانولاريتيتابليغت التي لا توجد بيانات المقابلة في الاختيار الحالي. وهي طريقة أسرع من استخدام التعبير التالي: ومع ذلك، يمكنك استبدال التعبير كالكولاتيتابل كامل مع لترانولاريتيتليغت فقط إذا كنت تريد أن تنظر القيم فارغة من لتماسوريغت كما 0. يعتمد أداء صيغة ميديانكس على عدد الصفوف في الجدول تكرارا وعلى تعقيد التدبير. إذا كان الأداء سيئا، قد تستمر نتيجة لتماسوريجت في عمود محسوبة من لتابليغت، ولكن هذا سوف يزيل قدرة تطبيق عوامل التصفية على حساب الوسيط في وقت الاستعلام. النسبة المئوية لبرنامج إكسيل له تطبيقان مختلفان لحساب المئين مع ثلاث وظائف: بيرسنتيل و PERCENTILE. INC و PERCENTILE. EXC. أنها جميعا ترجع النسبة المئوية K - ث من القيم، حيث K في نطاق 0-1. الفرق هو أن بيرسنتيل و PERCENTILE. INC النظر K كمجموعة شاملة، في حين يعتبر PERCENTILE. EXC مجموعة K 0-1 باعتبارها حصرية . وتتلقى كل هذه الوظائف وتطبيقات داكس قيمة مئوية كمعلمة، والتي نسميها قيمة K. لكغت المئوية في المدى من 0 إلى 1. يتطلب تطبيقا داكس للمئين عددا قليلا من التدابير المتشابهة، ولكن مختلفة بما فيه الكفاية لتتطلب اثنين من مجموعة مختلفة من الصيغ. التدابير المحددة في كل نمط هي: كبيرك. القيمة المئویة التي تتطابق مع ال لكت. بيركبوس. موقف النسبة المئوية في مجموعة من القيم التي تم فرزها. فالو. القيمة أقل من النسبة المئوية. فالهيهي. القيمة فوق الموضع المئوي. النسبة المئوية. الحساب النهائي للمئوية. تحتاج إلى فالو و فالوهيغ التدابير في حالة بيركبوس يحتوي على جزء عشري، لأنه ثم عليك أن إنتيربولات بين فالو و فالوهيغ من أجل إعادة القيمة المئوية الصحيحة. ويبين الشكل 4 مثالا على الحسابات التي أجريت مع صيغ إكسيل و داكس، باستخدام كل من خوارزميات المئين (شاملة وحصرية). الشكل 4 الحسابات المئوية باستخدام صيغ إكسيل وحساب داكس المعادل. في المقاطع التالية، يتم تنفيذ الصيغ بيرسنتيل الحساب على القيم المخزنة في عمود جدول داتافالو، في حين أن الصيغ بيرسنتيلكس تنفذ الحساب على القيم التي يتم إرجاعها بواسطة مقياس محسوب في دقة معينة. النسبة المئوية الشاملة إن التنفيذ الشامل الشامل هو التالي. النسبة المئوية الحصرية التنفيذ الحصري المئوي هو التالي. بيرسنتيلكس شامل يستند التطبيق بيرسنتيلكس الشامل على القالب التالي، وذلك باستخدام هذه العلامات: لترانولاريتيتليغت هو الجدول الذي يحدد دقة الحساب. على سبيل المثال، يمكن أن يكون جدول التاريخ إذا كنت ترغب في حساب النسبة المئوية لمقياس على مستوى اليوم، أو يمكن أن تكون قيم (8216DateYearMonth) إذا كنت ترغب في حساب النسبة المئوية لمقياس على مستوى الشهر. لتماسوريجت هو مقياس لحساب لكل صف من لترانولاريتيتليغت لحساب المئوية. لتماسوريتابليغت هو الجدول الذي يحتوي على البيانات المستخدمة من قبل لتماسوريغت. على سبيل المثال، إذا كان لترانولاريتيتليغت بعدا مثل 8216Date، 8217 ثم لتماسوريتابليغت سيكون 8216Sales8217 تحتوي على عمود المبلغ التي تم جمعها من قبل قياس المبلغ الإجمالي. على سبيل المثال، يمكنك كتابة بيرسنتيليكسينك من إجمالي المبلغ المبيعات لجميع التواريخ في الجدول التاريخ كما يلي: بيرسنتيلكس إكسلوسيف يستند إكسلوسيف إكسلوسيف التنفيذ على القالب التالي باستخدام نفس العلامات المستخدمة في بيرسنتيلكس شاملة: على سبيل المثال، أنت يمكن كتابة بيرسنتيلكسكسك من إجمالي كمية المبيعات لجميع التواريخ في الجدول التاريخ على النحو التالي: إبقائي على علم أنماط القادمة (النشرة الإخبارية). قم بإلغاء التحديد لتنزيل الملف بحرية. نشر في 17 مارس 2014 من قبل بيسكو أسر 1000 تجميع الخدمات الموجهات جودة الخدمة أسئلة وأجوبة سيسكو ريج أسر 1000 تجميع الخدمات منصة التوجيه لديها قوية وقابلة للتطوير جودة الخدمة (كوس) التنفيذ. وهي تلتزم واجهة جودة الخدمة كوس كلي (موك) سطر الأوامر (كلي)، وبالتالي فإن التكوين هو مألوف ل سيسكو يوس ريج ومستخدمي يوس ز البرمجيات من منصات أخرى. لأن جودة الخدمة على سيسكو أسر 1000 يتم تنفيذها في الأجهزة، قد تختلف تفاصيل معينة من التشغيل من منصات سيسكو الأخرى. Q. كيف تحسب سيسكو أسر 1000 أحجام الرزم A. يرجى الرجوع إلى الجدول 1 للحصول على معلومات عامة حول طوابير خرائط السياسة المطبقة على السطوح البينية الفيزيائية أو السطوح البينية الفرعية أو الدارات الظاهرية أتم أو القوالب الظاهرية أو السطوح البينية للنفق. ويرجى الرجوع إلى الجدول 2 للحصول على معلومات عامة عن ضبط خرائط السياسة المطبقة على السطوح البينية الفيزيائية والسطوح البينية الفرعية والدوائر الظاهرية أتم والقوالب الظاهرية أو السطوح البينية للنفق. الجدول 1. حساب حجم الرزم للوظائف والوظائف في الطابور ما لم يتم تضمينه ما هي السطوح البينية الرئيسية والوصلات البينية إيثرنت الفواصل بين الأطر (إفغ) وفحص التكرار الدوري (كرك) الطبقة 1 المصروفات العامة الطبقة 2 الرؤوس وحمولة الطبقة 2 الكل الطبقة 3 والحمولة الصاعدة أتم الدوائر الافتراضية والمسارات الظاهرية أتم الطبقة 1 المصروفات العامة 5 بايت رؤوس خلايا أجهزة الصراف الآلي جميع رؤوس طبقة التكيف في أجهزة الصراف الآلي (أ) أتم خلية ضريبة أتم وحشو خلية أتم كل طبقة 3 وما فوق حمولات صادرة وحزمة فوق سونيت (بوس) السطوح البينية الرئيسية التحكم في الوصلات كرك و رفيعة المستوى للتحكم في وصلة البيانات (هدلك) رزم الطبقة 2 والحمولة 2 للطبقة 2 جميع حمولات الطبقة 3 وما فوقها النفاذ الظاهري والنموذج الظاهري للنطاق العريض والدورات إفغريامبل والنفقات العامة للطبقة كرك 1 الطبقة 2 الرؤوس وحمولة الطبقة 2 (L2TP) رؤوس بروتوكول نفق الطبقة 2 (L2TP) رؤوس بروتوكول من نقطة إلى نقطة فوق X (ببوكس) جميع الأحمال النافعة للطبقة 3 وما فوقها الأنفاق (تغليف التوجيه العام غري و فين ديناميكي متعدد النقاط دمفن وواجهة النفق الظاهري الديناميكي دف تي و إيبسيك من الموقع إلى الموقع فين سفتي و إب إيبسيك الأمن) إفغريامبل و كرك طبقة 1 النفقات العامة طبقة 2 رؤوس وحمولة 2 طبقة Q. هل من الممكن لحساب التغييرات المصب في حجم الحزمة أ. نعم، مع المحاسبة العلوية ، يمكن لجميع وظائف الطابور ضبط حجم الحزم لأغراض جدولة الحزم للإرسال باستخدام الكلمة الرئيسية للحساب مع ميزة الطابور. يمكنك تهيئة تعويضات مخصصة تتراوح من 64 إلى 64 بايت. بالإضافة إلى ذلك، يمكنك استخدام بعض إزاحة محددة مسبقا. لاحظ أن ميزات الطابور معتمدة فقط على الخروج، وبالتالي يتم دعم المحاسبة العلوية فقط على خرائط السياسة الخروج مع وظائف الطابور. مثال على واجهة سطر الأوامر (كلي) يلي: شكل متوسط ​​الحساب معرف من قبل المستخدم -4 بالإضافة إلى ذلك، مع الكلمة الرئيسية أتم، وظائف الطوابير يمكن تعويض عن انقسام الخلايا أتم وحشو الخلية (تسمى أحيانا ضريبة خلية أتم). تعوض هذه الوظيفة رأس 5 بايت لكل خلية وحشو الخلية الأخيرة لملء 48 بايت كامل من الحمولة النافعة. إذا كان هناك حاجة إلى حساب AAL5 إضافية، بروتوكول الوصول إلى الشبكة الفرعية (سناب)، أو رؤوس أخرى، ينبغي أن تدرج مع المعلمة المعرفة من قبل المستخدم أو بعض الكلمات الرئيسية المعرفة مسبقا. ويدعم المحاسبة النفقات العامة الشرطة في سيسكو يوس ز 3.17. وينطبق هذا التغيير على عمليات المراقبة الصارمة (نسبة مئوية من معدل الشرطة) والشرطة غير المشروطة مع الأولوية (الأولوية النسبية للشرطة). ومع ذلك، فإنه لا ينطبق على الشرطة الشرطية (الأولوية تكوينها مع ريتيربرسنتاد). أي فئة مع بوليسر الشرطي يعني كلا من بوليسر وطابور الأولوية. طابور يدعم ورثت النفقات العامة من الوالد الطابور ومع ذلك، فإن بوليسر لا تدعم أي النفقات العامة. الشرطة 300300 حساب المستخدم المعرفة -4 لمزيد من المعلومات، يرجى الرجوع إلى: Q. يمكن كوس كونفيوغريد على واجهة الإدارة، GigabitEthernet0 A. لا، لا يمكنك تكوين جودة الخدمة على واجهة الإدارة. يتم التعامل مع واجهة إدارة تماما داخل معالج المسار، وحركة المرور من وإلى واجهة إدارة لا تتحرك من خلال سيسكو أسر 1000 سلسلة الخدمات المضمنة المعالج (إسب). ولأن جميع وظائف جودة الخدمة يتم إجراؤها على الخدمة إسب، لا يمكن تطبيق جودة الخدمة. Q. هل هناك اختلاف في سلوك جودة الخدمة على منافذ إيثرنت المحولة بالمنفذ المشترك (سبا) مقارنة بمنافذ إيثرنت المضمنة أ. بالنسبة لسلوك جودة الخدمة الذي تديره أوامر سياسة خدمة موك، لا يوجد فرق في سلوك جودة الخدمة. جميع معالجة جودة الخدمة المتقدمة تتم على إسب ولا تتأثر بنوع مدخل منفذ إيثرنيت. جميع منصات أسر 1000 لها طوابير منخفضة وعالية الأولوية على أساس المنفذ في مسار الدخول والخروج. هذا هو نفسه بغض النظر عن تصميم وحدات أو ثابتة منصة. يعمل معالج بطاقات واجهة المعالج سبا (SIP10 و SIP40) في سلوك مختلف قليلا عند جدولة حركة المرور وإعادة التوجيه إلى إسب للمعالجة. ولا يحدث هذا الاختلاف إلا إذا تم الاكتتاب في SIP10 مع حركة المرور (على سبيل المثال، اثنين من 10-غي سبا المثبتة في محاولة SIP10 لنقل أكثر من 10 جيجابايت في الثانية من حركة المرور إلى إسب للمعالجة). في السيناريوهات غير المكتملة، سيكون السلوك نفسه على SIP10 و SIP40. بالنسبة للغالبية العظمى من العملاء، فإن هذه الاختلافات الدقيقة في السلوك لن يلاحظ في سلوك الشبكة العادي. لا ينصح بمحاولة التلاعب في سلوك جودة الخدمة القائم على سيب بدون تعليمات محددة للقيام بذلك. سلوك الخروج هو نفسه بين SIP10 و SIP40. يحتوي جهاز التوجيه سيسكو أسر 1002 على جهاز SIP10 المدمج. يحتوي جهاز أسر 1002-X راوتر على SIP40 مدمج. في كل من أسر 1002 و أسر 1002-X الموجهات، المدمج في سيب هو دائما غير المكتتب. لا يحتوي جهاز أسر 1001-X راوتر على بروتوكول سيب مدمج حيث تتم إدارة واجهات إيثرنيت مباشرة بواسطة شرائح متكاملة. و أسر 1001-X لديها كمية أقل من العازلة حزمة دخول بالمقارنة مع منصات أخرى أسر 1000. Q. هل يمكن أن تدير جودة الخدمة حركة التحكم بالمستوى الموجه إلى سيسكو يوس سوفتوار التي تعمل على معالج المسار أ. نعم، يتم دعم خريطة سياسة جودة الخدمة غير الخبيثة على مستوى التحكم في وضع تكوين برنامج سيسكو يوس. وتعرف هذه الميزة باسم كوب (مراقبة طائرة الشرطة). عادة، يتم تطبيق خريطة للسياسة على مستوى التحكم لحماية معالج المسار من هجمات الحرمان من الخدمة (دوس). سوف تؤثر خريطة السياسة المطبقة في اتجاه الإدخال على مستوى التحكم على حركة المرور الموجهة لمعالج المسار من الواجهات العادية. فمن الممكن لتصنيف الحزم بحيث أن بعض معدل محدود والبعض الآخر لا. عند استخدام أوامر شو بلات الأجهزة كفب على واجهة التحكم-الطائرة، نضع في اعتبارنا أنه على الرغم من أن يتم تكوين خريطة السياسة والدخول إلى مستوى التحكم، فإنه يخرج من بطاقة إسب. وهكذا، يجب أن تظهر أوامر بلات الأجهزة كفب اتجاه الإخراج. Q. كيف تخطط المجمعات كفب إلى واجهات المادية للخروج يصطفون مع سيسكو أسر 1000 سلسلة 100- و 200 جيجابت في الثانية المعالجات الخدمات المدمجة (ESP100 و ESP200، على التوالي) A. ل بوبوسس من الطابور الطابور، مجمع كفب معين المسؤولية عن وظائف الطابور على بعض الخلجان المشتركة محول الموانئ (سبا) في هيكل سيسكو أسر 1000. بالنسبة إلى الأنظمة التي تحتوي على مجمع كفب واحد، فإن هذا الوضع ليس مصدر قلق لأن جميع الواجهات يتم التعامل معها من خلال مجمع كفب واحد. وبالنسبة إلى الأنظمة التي تحتوي على كفبس متعددة، من المهم توزيع السطوح البينية بين كفبس إذا كان هناك عدد كبير من الطوابير أو الجداول الزمنية أو إذا كان هناك قلق بشأن استخدام ذاكرة الذاكرة العازلة العالية. لاحظ أن هذه المسؤولية في قائمة الانتظار مستقلة عن معالجة الميزات الأخرى. على سبيل المثال، يمكن أن يكون للحزمة ميزات الدخول والخروج التي يتم التعامل معها من قبل كفب 0 بينما يتم التعامل مع قابلية الاستباق في الطابور للخروج بواسطة كفب 1. ويبين الشكلان 1 و 2 كيفية توزيع الواجهات في هيكل سيسكو أسر 1006 و أسر 1013: هيكل سيسكو أسر 1006 مع ESP100: فتحات سبا في خدمة خضراء من قبل كفب 0 سبا فتحات في الزرقاء خدمتها كفب 1 ليس من الممكن لعدة كفبس لخدمة سيسكو أسر 1000 سلسلة سبا معالج واجهة 10 (SIP10) المثبتة في أي فتحة. إذا تم استخدام SIP10 في فتحة عادة ما تكون مقسمة بين كفبس، فإن كفب التي تمتلك عادة الجانب الأيسر من سيب خدمة جميع الواجهات. بطاقات SIP40 يمكن خدمتها من قبل كفبس متعددة. ل سيسكو أسر 1000 سلسلة إيثرنت الثابتة بطاقة الخط (ASR1000-2T20X1GE)، وهما مملوكة 10 واجهات إيثرنت جيجابت من جانب كفب الجانب و 21 واجهات إيثرنت جيجابت إيثرنت مملوكة من قبل الجانب الأيسر كفب (الشكل 1). ل سيسكو أسر 1000 سلسلة الثابتة بطاقة إيثرنت الخط (ASR1000-6TGE) وتعود ملكية الفردية حتى عدد منافذ كفب الجانب الأيسر وتعود موانئ عدد الفردية من قبل الجانب الأيمن كفب (الشكل 1). الشكل 1. سيسكو أسر 1006 توزيع كفب مع ESP100 سيسكو أسر 1013 الشاسيه مع ESP100 أو ESP200: فتحات سبا باللون الأخضر خدمتها من قبل كفب 0 سبا فتحات في الزرقاء خدمتها من قبل كفب 1 فتحات سبا باللون الأرجواني التي تخدمها كفب 2 فتحات سبا في البرتقال خدمتها كفب 3 الشكل 2. واجهة كفب توزيع الملكية باستخدام ESP100 و ESP200 لاحظ أن الشكل 2 يفترض استخدام بطاقات خط SIP40 في هيكل سيسكو أسر 1013. إذا تم استخدام بطاقات خط SIP10، يتم التعامل مع جميع طوابير الخروج من قبل كفب التي تمتلك الجانب الأيسر (حتى الخلجان سبا مرقمة) في الشكل. على سبيل المثال، إذا تم تثبيت SIP10 في الفتحة 2 (الثالثة من الأسفل)، سيتم خدمة جميع طوابير لجميع المنافذ على أن SIP10 من قبل كفب 0 (الأخضر) مع ESP100 و كفب 1 (الأزرق) مع ESP200. ل سيسكو أسر 1000 سلسلة إيثرنت الثابتة بطاقة الخط (ASR1000-2T20X1GE)، وهما مملوكة 10 واجهات إيثرنت جيجابت من جانب كفب الجانب و 20 واجهات إيثرنت جيجابت إيثرنت مملوكة من قبل الجانب الأيسر كفب. ل سيسكو أسر 1000 سلسلة الثابتة بطاقة إيثرنت الخط (ASR1000-6TGE) وتعود ملكية الفردية حتى عدد منافذ كفب الجانب الأيسر وتعود موانئ عدد الفردية من قبل الجانب الأيمن كفب (الشكل 1). Q. كيف يختلف جدولة ثلاثة معلمات المستخدمة من قبل سيسكو أسر 1000 من جدولة المعلمة اثنين المستخدمة من قبل منصات أخرى A. يستخدم سيسكو ASR1000 جودة الخدمة جدولة ثلاثة معلمات: الحد الأقصى والحد الأدنى والفائض. تستخدم معظم المنصات الأخرى الأخرى معلمتين فقط: الحد الأقصى والحد الأدنى. كلا النموذجين التعامل مع الحد الأقصى (الشكل) والحد الأدنى (عرض النطاق الترددي) بنفس الطريقة. الفرق هو كيفية توزيعها (عرض النطاق الترددي المتبقي). الحد الأقصى هو الحد الأعلى لعرض النطاق الترددي لحركة المرور التي يسمح للفئة بإعادة توجيهها. الحد الأدنى هو غوارنتي أن كمية معينة من حركة المرور سوف تكون متاحة دائما، حتى لو كانت واجهة أو التسلسل الهرمي مزدحمة. الفائض هو الفرق بين المعدل الأقصى الممكن (المشكل الأم) وجميع مومومومز المستخدمة (الأولوية وحركة المرور مضمونة عرض النطاق الترددي). ويوزع مجدول ثنائي المعلمة عرض النطاق الزائد بشكل متناسب وفقا للمعدلات الدنيا. A جدولة ثلاثة معلمة لديه معلمة للبرمجة للسيطرة على هذا التقاسم. افتراضيا، يستخدم سيسكو أسر 1000 على قدم المساواة تقاسم أو القيم الزائدة من 1 لكل فئة. بسبب القيود في سيسكو يوس سوفتوار، لا يمكنك تكوين الحد الأدنى (عرض النطاق الترددي) والمعلمات الزائدة (باندويث المتبقية) في نفس الوقت في فئة. تم دعم هذا التكوين المتزامن في برنامج سيسكو يوس الكلاسيكي. لمزيد من المعلومات، يرجى الرجوع إلى: خوارزمية دلو راشح كطابور: en. wikipedia. orgwikiLeakybucketTheLeakyBucketAlgorithmasaQueue (ملاحظة: لا يتم التحكم في هذه الوثيقة أو اعتمادها من قبل سيسكو، ويتم توفيرها فقط كراحة). س. ما هو عرض النطاق غير المقي وأوامر عرض نطاق الخدمة كوس المرجعية، وأين تكون مفيدة A. وعادة ما يستخدم أمر عرض نطاق السطح البيني على السطح البيني للتأثير على مقياس عرض النطاق الذي تستخدمه بروتوكولات التوجيه لقرارات المسير. بيد أن القيمة المعطاة لأمر عرض النطاق يمكن أن تؤثر في نوعية الخدمة في حالات معينة. وكان القصد من عرض السطح البيني المرجعي المرجعي كوس أن ينقل إلى البنية التحتية لنوعية الخدمة مدى عرض النطاق الترددي المتاح لعرض نطاق النفق. ويبين الجدول 3 تفاصيل عرض النطاق العريض وعرض نطاق الخدمة. الجدول 3. استعمالات لعرض نطاق السطح البيني وعرض نطاق الخدمة مرجع الخدمة Q. ما هي رزم باكبريوريتي وكيفية التعامل معها أ. بعض الرزم التي تعتبر هامة جدا بحيث لا تعتبر قطرة مع إعطاء تسمية خاصة تسمى باكبريوريتي. يتم إنشاؤها بواسطة سيسكو يوس سوفتوار على معالج المسار. وترتبط الحزم باكبريوريتي عادة بالبروتوكولات التي يكون فيها التسليم الموثوق به مرغوبا للغاية ولا توجد إعادة إرسال أو الاحتفاظ بالوقت المضمون في البروتوكول. لن تكون جميع الحزم لبروتوكول معين باكبريوريتي. من أجل تحقيق سلوك عدم إسقاط، لا يتم تشغيل حزم باكبريوريتي من خلال قوائم الانتظار التي أنشأتها خرائط سياسة موك. يتم تشغيل حزم باكبريوريتي من خلال قائمة انتظار الواجهة الافتراضية مع استثناءات قليلة. إذا تم تصنيف حزمة باكبريوريتي إلى قائمة انتظار أولوية (الكمون المنخفض) بواسطة خريطة نهج موك، فإن حزم باكبريوريتي تتحرك من خلال قائمة انتظار الأولوية المعرفة من قبل المستخدم بدلا من قائمة انتظار الواجهة الافتراضية. وإلا فإن الحزمة سوف تزيد عدادات التصنيف (ولكن ليس عدادات الطابور) للطبقة المطابقة ومن ثم يتم وضعها في قائمة انتظار الواجهة الافتراضية. بالنسبة للسطوح البينية غير أتم، هناك طابور افتراضي لواجهة تعامل واحدة لواجهة تعامل فعلية. فإنه يحمل باكبريوريتي وحركة المرور غير باكبريوريتي التي لا تتحرك من خلال خريطة سياسة موك. وفيما يتعلق بواجهات أجهزة الصراف الآلي، توجد طابور افتراضي لواجهة واحدة، ولكن بالإضافة إلى ذلك، فإن كل دائرة ظاهرية من أجهزة الصراف الآلي لها طابور افتراضي مرتبط بها. ويحمل الطابور الافتراضي للدائرة الظاهرية لكل جهاز صراف آلي حركة المرور غير الباكستانية لدائرة افتراضية معينة دون تطبيق موك. جميع حركة المرور باكبريوريتي (لا يتم تصنيفها إلى قائمة انتظار أولوية منخفضة الكمون من قبل خريطة سياسة موك) يتحرك من خلال طابور واجهة أتم الافتراضية. توجد قائمة انتظار الواجهة الافتراضية خارج قوائم الانتظار التي تم إنشاؤها عند تطبيق خريطة سياسة جودة الخدمة في الطابور على واجهة. وقد ضمنت قائمة انتظار الواجهة الافتراضية الحد الأدنى من عرض النطاق الترددي لخدمة حزم باكبريوريتي. ويساعد تحريك حركة المرور من خلال هذه اللائحة في تجنب (ولكن لا يضمن تجنب) التجويع حسب رزم الأولوية التي يحددها المستخدم. إذا كان من الأفضل تجنب التجويع بشكل خاص في سيناريوهات العملاء، فمن الممكن تصنيف حركة المرور المحددة هذه (من خلال فلاتر الخرائط الصفية) إلى الفئات المعرفة من قبل المستخدم مع الأولوية (الطابور المنخفض زمن الانتظار لوق)، والذي سيسمح بزيارات باكبريو هذه إلى التدفق من خلال قائمة انتظار الأولوية المعرفة من قبل المستخدم بدلا من قائمة انتظار الواجهة الافتراضية (كما تمت مناقشته). ثم تتنافس حركة المرور هذه بالتساوي مع حركة الزيارات الأخرى ذات الأولوية. تظهر حزم باكبريوريتي في عدادات التصنيف لخريطة السياسة المطبقة على واجهة الخروج. ومع ذلك، لا تظهر الحزم في عدادات الطابور، لأنها تكون في الواقع من خلال قائمة انتظار الواجهة الافتراضية. من أجل مراقبة عدد الحزم التي انتقلت من خلال طابور الواجهة الافتراضي، استخدم الأمر التالي (لاحظ أنه يجب التعبير عن اسم الواجهة بالكامل مع مطابقة الأحرف الكبيرة): إظهار بلات هارد كفب أكتيف إنفرا بكس إنت GigabitEthernet000 قيم قطرات الذيل و توتالنكس تعطي عدد الرزم التي تم إسقاطها بسبب طابور كامل وعدد الرزم التي تم وضعها. حزم باكبريوريتي لا تخضع لقطرات الذيل، قطرات الكشف العشوائي، أو قطرات بوليسر. على سبيل المثال، يتم إضافة هذه الحزم إلى قائمة انتظار الواجهة الافتراضية، حتى إذا كان عمق قائمة الانتظار أكبر من حد الانتظار. يتم إسقاط الرزم غير باكبريوريتي المستهدفة لقائمة انتظار الواجهة الافتراضية مثل أي رزمة أخرى إذا تم تجاوز حد الانتظار. الحزم باكبريوريتي المصنفة إلى طابور منخفضة الكمون أيضا محمية من إسقاط الذيل من نفس المنطق. فقط إذا كانت حزمة حزمة إسب كاملة كاملة جدا (أكثر من 98 في المئة) هي الحزم باكبريويرتي ذيل انخفض. ليس من الممكن وضع علامة على الحزم كما باكبريوريتي من خلال كلي. يتم حجز هذه الوظيفة للحزم التي تم إنشاؤها ووضع علامة عليها من قبل سيسكو يوس سوفتوار. لا توجد عدادات برامج سيسكو يوس خاصة بالحزم باكبريوريتي. ومع ذلك، قدمت بعض البروتوكولات التحكم في التكوين لوضع علامة على حزمها ك باكبريوريتي. بروتوكول تحليل العناوين (أرب) هو مثال واحد، من خلال كلي كلي: تمكين أولوية حزمة أرب. فيما يلي قائمة بروتوكولات مع الحزم التي تم وضع علامة ك باكبريوريتي. هذه القائمة عرضة للتغيير دون إشعار ولا تعتبر شاملة أو شاملة: أتم عنوان بروتوكول قرار سلبي شكر وتقدير (أرب ناك) أتم أرب يطلب أتم المضيف بينغ العمليات وإدارة وتنظيم خلية (أوامبم) أتم واجهة الإدارة المحلية المؤقتة (إلمي) سيسكو (دتب) رزمة إرجاع الشبكة إيثرنيت ترحيل الرتل إند 2 تتابع ترحيل الأرتال المعكوس (أرب) ترحيل الأرتال العكسي (أرب) نظام النفاذ إلى الوصلة أرب (فاب) ترحيل الرتل واجهة الإدارة المحلية (لمي) هوت ستاندبي كونكتيون-تو-كونكتريون حزم التحكم (هكب) التحكم في ارتباط البيانات (هدلك) بروتوكول التحكم في تجميع الارتباطات (لاكب) (802.3ad) بروتوكول تجميع الموانئ (باسب) بروتوكول التحكم في الارتباط (لكب) الرسائل الخط التسلسلي عنوان بروتوكول الحل (سلارب) بعض بروتوكول متعدد النقاط من نقطة إلى نقطة (ملب) (لكب) بروتوكول البث المتعدد المستقل (بيم) هيلوس بروتوكول توجيه البوابة الداخلية (إغرب) هيلوس النظام المتوسط ​​إلى الأول (إيس-إس) هيلوس، رقم تتابع كامل بدو (كسنب)، بسنب، ومسارات تبديل الملصقات (لسبس) بروتوكول معلومات التوجيه المحفز (ريب) أك تدب و لدب هيلوس بروتوكول حجز الموارد (رسفب) بعض رزم التحكم L2TP بعض L2F control packets GRE IP Keepalive Bidirectional Forwarding Protocol (BFD) Q. Are packets marked as PAKPRIO treated with priority or guaranteed not to drop A. No, they are not treated with priority by default and they are subject to dropping under certain conditions. They are not subject to tail drop, random-detect drop, or policer drop unless the packet memory is very full (over 98). They are given a minimum bandwidth associated with the interface default queue (which can sometimes be managed by a policy map on the main physical interface). However, they share this minimum bandwidth with all other traffic that flows through the default interface queue. Therefore, this traffic can still be dropped in congestion scenarios. If you want greater protection or priority handling for specific traffic marked as PAKPRIO, then you should classify that traffic (with specific filters) to a user-defined class map that has LLQ (Low-Latency Queuing) enabled. It would also be a good practice to provision either strict or conditional policing in this class to manage any denial of service-type attacks. Q. The Cisco ASR 1000 isnt showing a class-map filter or access control entries (ACE) matches. How can I access the information A. By default, the ASR 1000 does not track per class-map filter or per-ACE matches for QoS. However, you can access these statistics by enabling one of the following CLIs: platform qos match-statistics per-filter (supported in Cisco IOS XE 3.3) platform qos match-statistics per-ace (supported in Cisco IOS XE 3.10) Note that these commands will not be affective if added to the configuration while any QoS policies are attached to any interfaces. To become effective, all QoS policies must be removed and then reapplied or the router must be rebooted. Q. The Cisco ASR 1000 isnt showing packet-marker statistics. How can I access the information A. By default, the ASR 1000 does not track marking statistics for QoS. However, you can enable these statistics by configuring the following CLI: platform qos marker-statistics (supported in Cisco IOS XE 3.3) Note that this command will not take effect if added to the configuration while any QoS policies are attached to any interfaces. To become effective, all QoS policies must be removed and then reapplied or the router must be rebooted. Q. How many class maps, policy maps, or match rules are supported A. Support as of Cisco IOS XE 3.10 is listed in Table 4. Table 4. Number of Class Maps, Policy Maps, and Match Rules Supported 16,000 for Cisco ASR 1000 Series Route Processor 2 or 3 (RP2 or RP3) with ESP40, ESP100, or ESP200All other platform combinations are 4096. Q. What are the causes for FMFPQOS-6-QOSSTATSPROGRESS messages in the system log A. The FMFPQOS-6-QOSSTATSSTALLED message is simply an informational message indicating that the statistics upload from the ESP card to the RP card is not progressing as quickly as normally expected. There are no long term bad effects from this command other than QoS statistics in IOS may not be updated as quickly as expected. This would affect statistics gathered from the CLI as well as from SNMPszlig. This error could occur during a heavy processing load on the RP, for example during a large BGP routing update or during a period of high rate session bringup. Q. How many policers are supported in the entire system A. For conditional policing, the limits are dictated by the number of queues that the platform supports. For strict policing, there is no set limit. The primary limiting factor for strict policers is available memory (both control plane and data plane). Q. How can the usage of control plane memory be determined A. The command show platform software status control-processor brief can be used to check the amount of available control plane memory. The command show plat hard qfp act infra exmem stat can be used to check the amount of free data plane memory. Q. What is the burst profile associated with shapers on the ASR 1000 A. When configuring the shape command on the ASR 1000, the CLI will accept the bc and be parameters in order to maintain configuration compatibility with migration of configurations from prior platforms. Even though these parameters are accepted, they are ignored by the hardware that does the QoS processing. Classic Cisco IOS Software shapers were based on an interval (Tc). Whenever that interval arrived, the scheduler would send a burst of data ( bc and be ) such that, over time, the desired shape rate would be achieved. The minimum interval of four msec was based on the Cisco IOS tick timer that fired periodically to trigger such time-based events. On the ASR 1000, the shaper is implemented in hardware and will send packets as often as possible to help maintain shape rate. There are a two mechanisms that appear like ASR 1000 bursts data at an interval however, it actually isnt the case. These two cases: When small packets are in the queue, the hardware may group them into a batch of about 512 bytes and send them as a group. The scheduler will generally send no fewer than two packets when a queue is cleared to transmit. Both of these decrease required instructions and allow the hardware to service high-speed 10-GE interfaces without consuming extra CPU cycles. Neither of these small burst scenarios should cause a problem when looking at the overall rate. Another way to view this shaper implementation is as a purely leaky bucket, whereas previous shapers could be considered as token leaky buckets. This purely leaky bucket algorithm prevents us from having a burst of bc or be packets like some of the older platforms that required tuning of parameters to protect downstream devices with limited buffering. Transmissions from the ASR 1000 should be much smoother overall, without previously observed bursting that had to be managed. Bursting for downstream devices should not be considered a major concern. Q. Are there any restrictions on high data rates and low data rates used at the same level of a QoS hierarchy A. There are no restrictions, but there are some best-practice guidelines. In general, there should not be elements in the same policy map (or at the same level of a QoS hierarchy in hardware) that are more than three levels of magnitude apart. If this rule is not followed, the higher-speed interfaces will suffer from a higher amount of jitter and bursty traffic than would otherwise be anticipated. If there is a need for this, the recommended solution is to insert an artificial level into the hierarchy. Adding this level of hierarchy can put the slow and fast shapers at different levels of the hierarchy, thus working around the restriction. Note that this problem can be found if vastly different rates are used in the same policy map, or if different policy maps with vastly different rates are applied at sibling nodes (for instance, two Gigabit Ethernet sub-interfaces, two subscriber sessions on the same interface, etc.). An example of a situation where this would be required would be two sub-interfaces for a Gigabit Ethernet interface. One needs to be shaped at 512 kbps and the other at 600 Mbps. The 600 Mbps interface is 1171 times the rate of the 512 kbps shaper and breaks the 1:1000 (three levels of magnitude) guidance. In this instance, one of the recommended solutions would be deploying policy maps such as the following: policy-map 512kb-shaper class class-default bandwidth remaining ratio 1 service-policy 512kb-shaper-child policy-map 512kb-shaper-child class class-default shape average 512000 policy-map 600Mb-shaper-child class class-default shape average 600000000 interface GigabitEthernet 000.100 service-policy output 512kb-shaper interface GigabitEthernet 000.101 service-policy output 600Mb-shaper The command below can also solve the issue when the shape ratio exceeds 1:1000 at the same level. However, it will require a chassis reload after the command is added to the configuration. platform qos optimize-rate-ratios This optimization is supported in Cisco IOS XE 3.16.3 and all Cisco IOS XE 16.3.1 and newer software. Q. What are the details of the packet counters in the show policy-map interface output A. The output is divided into several different sections. Typically there are sections for each of the following: Wired random early detection (WRED), random-detect The following configuration was used to generate the output for the example being documented: platform qos marker-statistics platform qos match-statistics per-filter platform qos match-statistics per-ace police cir 5000000 pir 75000000 exceed-action set-dscp-transmit 0 shape average 40000000 random-detect precedence 0 10 20 10 random-detect precedence 1 12 20 10 random-detect precedence 2 14 20 10 match precedence 1 match precedence 2 service-policy output reference Q. How is packet memory managed A. On all Cisco ASR 1000 platforms, the packet buffer memory on the ESP is one large pool that is used on an as-needed basis for all interfaces in the chassis. Interfaces do not reserve sections of memory. If 85 percent of all packet memory is used, nonpriority packets are dropped. At 98-percent packet memory usage, priority packets are dropped. The remaining 2 percent is reserved for internal control packet information. It is recommended that no more than 50 percent of packet buffer memory be allocated with configured queue-limit commands. Although not enforced, this recommendation is a best-practice recommendation. For certain special applications this recommendation may not apply. Only under unusual circumstances would you expect to see the packet buffer memory highly used. When the 85- and 98-percent thresholds are crossed, Cisco IOS Software generates a console log message. Q. How can I monitor packet buffer memory usage A. The following command can show how much of the packet buffer memory is used at any given time. Note that on systems with multiple QFP complexes (ESP100 and ESP200), you can vary the number after the bqs keyword to check the different QFP complexes. ASR1000 show plat hard qfp active bqs 0 packet-buffer utilization Packet buffer memory utilization details: Out of Memory (OOM). 255.96 MB, Status: False Vital (gt 98). 253.44 MB, Status: False Out of Resource (OOR). 217.60 MB, Status: False Q. What is the scalability of packet memory, ternary content addressable memory (TCAM), and queue for various Cisco ASR 1000 hardware devices A. Table 5 details that information: Table 5. Packet Memory, Queue, and TCAM Scalability Note that for ESP100 and ESP200, physical ports are associated with a particular QFP complex on the ESP card. In order to fully use all queues, the queues must be distributed among different slots and SPAs in the chassis. Additional information is included in this QampA in this question: How do QFP complexes map to physical interfaces for egress queuing with Cisco ASR 1000 Series 100- and 200-Gbps ESPs (ESP100 and ESP200, respectively) Q. How are default queue limits calculated on the Cisco ASR 1000 when QoS is applied A. By default, the ASR 1000 assigns a default queue limit on the greater of the two following items: The number of packets of interface maximum-transmission-unit (MTU) size that would pass through the interface at the configured rate for 50 milliseconds. If only a shape average rate or shape percent value is used, then the rate is the shaper. If a bandwidth rate or bandwidth percent value is included, then it is used instead of the shaper rate. If bandwidth remaining ratio value is used, then the parent maximum rate (policy map or interface) is used. Here are some examples with a Gigabit Ethernet interface with a default MTU of 1500 bytes: For example, a class with a shape rate of 500 Mbps on a Gigabit Ethernet interface would give a default queue limit of: For example, a class with a shape rate of 300 Mbps on a Gigabit Ethernet interface would give a default queue limit of: For example, a class with a shape rate of 2 Mbps and a minimum bandwidth of 1000 kbps on a Gigabit Ethernet interface would use the minimum rate for calculations and give a default queue limit of: Q. If QoS is not configured, what is the queue limit for the interface A. Typically on Cisco IOS Software platforms, the output for show interface will give you the number of packets in the output hold queue. On the Cisco ASR 1000, even if QoS is not configured, the QFP complex still manages the interface queuing. The output hold-queue value does not apply on the ASR 1000. When QoS is not configured on an interface, all the traffic for that physical interface moves through the interface default queue. The interface default queue is by default configured to handle 50 msec worth of traffic at 105 percent of interface bandwidth speed for interfaces 100 Mbps or faster. (Note that there are two exceptions: interfaces slower than 100 Mbps are based on 100 percent of interface bandwidth, and ESP40 is based on 25 msec for all interface speeds.) For ESP5 through ESP40, if the default calculation comes up with a value that is less than 9280 bytes, then the default queue size is set to 9280 bytes. For the Cisco ASR 1002-X and ESP100 and higher, if the default calculation comes up with a value that is less than 9218 bytes, then the default queue size is set to 9218 bytes. You can use the following command to check the actual interface queue limit for a given physical interface (note that the interface name must be fully expressed with matching capitalization): show plat hard qfp active infra bqs queue output default interface GigabitEthernet110 inc qlimit Note that traffic for sub-interfaces with queuing QoS configured moves through the MQC-created queues, whereas traffic forwarded through other sub-interfaces or the main interface moves through the interface default queue. The interface default queue is always handled in byte mode instead of packet mode, which is the default for MQC policy maps. Q. Can I change the units (packets, time, and bytes) of the queue limit in real time A. No, you cannot change units used for a given policy map in real time. You would have to remove the policy map from any interfaces, reconfigure it, and then reattach it. If you have a feature such as WRED configured with a given type of units for the minth and maxth values, you would have to remove WRED, change the queue-limit command units, and then reapply WRED. Also keep in mind that all classes in a given policy map must use the same units. Q. From time to time, drops are seen in various queues. I do not suspect that the maximum rate is being overdriven. How should I address this problem A. The class showing the drops may be experiencing microbursts. Microbursts are small bursts of traffic that are long enough to fill up the queue for the class but not sustained long enough for network management to see the bandwidth as high enough to tail drop. The first thing to try is to increase the queue limit for the class. You can make this change in real time without affecting forwarding traffic. Try doubling the queue limit and then monitor for drops. If you still observe drops, you can increase the queue limit again. Eventually the drops should become less frequent or stop altogether. During nonburst times, traffic will have the same behavior. During the microbursts, there will be periods of higher latency as packets drain from the deeper queue. Note that if WRED is on the class, you will need to also adjust the minth and maxth values accordingly or temporarily remove WRED and reapply it so that WRED can be installed with minth and maxth values based on the increased queue limit. Q. When should I use time-, byte-, or packet-based queue limits A. By default, queue limits are defined in units of packets, giving a predictable number of MTU-sized packets that can be queued for the class. However, the queue could also fill up with just as many very small packets that would start to tail drop packets while the overall latency of packets at the end of a full queue is quite small. For most applications, the use of packet-based queue limits works well. If you prefer to have a tightly controlled and predictable latency, you should switch to byte - or time-based queue limits. When you use time or bytes, the maximum latency is fixed and the number of packets that can be queued is variable. Note that all classes in a policy map must use the same units and WRED must be configured using the same units that the queue limit is specified in. Operationally, time - and byte-based configuration is the same. If you use time units, the system will use the maximum allowed bandwidth for the class to convert the time value into a number of bytes and use that value to program the QFP hardware. Q. When should I use small or large queue limits A. You should use large queue limits as a mechanism to deal with bursty traffic. Having the available queue space minimizes the chance of dropping packets when there are short bursts of high-data-rate traffic in an otherwise slower stream of traffic. Queues that normally function well but occasionally show packet are good candidates for an increased queue limit. If a traffic class is constantly overdriven, a large queue limit is doing nothing other than increasing latency for most of the packets delivered. It would be better to have a smaller queue limit because just as many packets would be forwarded and they would have spent less time sitting idly in a queue. Priority queues by default have a queue limit of 512 packets, helping keep latency low but allowing buffering if the need arises. Typically, there is no need to tune the priority queue limits because only rarely are more than one or two packets waiting in the priority queue. If maximum latency and bursts of small packets are of concern, you should consider changing the queue limit to units of time or bytes. Q. Why do WRED configurations ported to the Cisco ASR 1000 have restrictive queue limits A. Cisco ASR 1000 calculates default queue limits differently from other platforms. Often older platforms have a higher default queue-limit value than the ASR 1000. You need to either manually increase the queue limit for the QoS class with the queue-limit value command or reconfigure your WRED minth and maxth values according to the default ASR 1000 queue-limit value for the given class. Q. What are the default minth and maxth values used by WRED A. The default minth and maxth values are based on the queue limit for the class. For all precedence and differentiated services code point (DSCP) values, maxth values are by default half of the queue limit. Headroom between the maxth values and the hard queue limit is important because WRED is based on the mean average queue depth that trails that instantaneous queue depth. The headroom between maxth and hard queue limit may be needed as the mean queue depth catches up with instantaneous queue depth. Table 6 presents the default minth values for all precedence and DSCP values. It is easiest to think of minth values as a fraction of the corresponding maxth value. The example values given are based on a queue limit of 3200. Table 6. WRED Defaults for Queue Limit (Example with Queue Limit of 3200) Q. How is the average or mean queue depth calculated A. The average or mean queue size is calculated according the following formula, where n is the exponential constant value, currentqueuesize is the instantaneous queue size when the drop decision is being made, and oldaveragequeuesize is the queue size the previous time this calculation was performed: As n increases, the mean queue depth is slower to respond to changes in instantaneous queue depth. Q. What is the scalability for wired random early detection (WRED) A. The ASR 1000 does not have a hard limit on the number of WRED profiles that are available across the entire system. A WRED profile defined in a given policy map that is reused on multiple targets is only counted as a single profile. The primary limiting factor is available memory. In typical enterprise deployments, you should be able to scale up to 64 profiles without issue. The number of WRED profiles is not dependent upon time-, packet-, or byte-based queue-limit configurations. Q. What are the causes for QOS-4-WREDQLIMITOUTOFSYNC messages in the system log A. This is a generic QoS warning on Cisco IOS Software platforms that can be safely ignored on ASR 1000. This warning message indicates that the threshold used by WRED exceeds the queue-limit in the parent level. However on IOS XE platforms, queue-limit in parent level is a legacy value set for the compatibility of IOS format. The parent queue is actually a scheduler node instead of a real queue, hence the queue-limit value will not take any effect to the WRED threshold in child level. Q. What are the queue limits for the queues created by the fair-queue feature A. By default, each of the 16 queues created by the fair-queue feature has a limit of 25 percent of the queue limit of the class. For example, if a class is configured to have a queue limit of 1000 packets and fair queue is configured, each of the 16 underlying queues has a limit of 250 packets. For this reason, it is important to consider the per-flow queue limit when manually adjusting the WRED minth and maxth values. Q. Is it possible to specifically change the queue limit for the queues created by fair queuing A. Yes, you can adjust the queue limits for the 16 queues created by fair queuing but only when using packet-based queue limits. As of Cisco IOS XE Release 3.11, the CLI is limited such that it is not possible to adjust the queue limits for the 16 queues using time - or byte-based queue-limit configurations. The workaround is to manipulate the overall class queue limit in byte or packet mode such that the fair queues are at the desired value. So if the desired per-flow queue limit is 100 ms, you should configure the class queue limit to be 400 ms. Q. How does fair queue divide traffic into different flows A. The Cisco ASR 1000 uses a 5-tuple on the packets contents to hash the traffic into a given queue. The 5-tuple consists of: Source and destination IP address Protocol (TCP, UDP, etc.) Source and destination protocol ports There are some special considerations when using fair-queue with tunnel traffic. Specifically, fair-queue will use the outermost IP addresses as part of the tuple calculation. For tunnel traffic moving across a class with fair-queue, all the traffic for a given tunnel will use only one of the 16 fair queues even if the inner IP addresses are different. If there are multiple tunnels using the class-map with fair-queue configured, then the tunnels will be distributed amongst the 16 queues based on the tunnel source and destination addresses. Fair-queue may not be the best choice to use on a main-interface for sub-interface that is carrying a number of tunnel connections. Q. How does fair queuing interact with random detect A. Adding fair queue to random detect introduces some additional checks and considerations for applying custom random-detect configurations. Figure 3 shows a flow diagram of the decision-making process when the two features are configured together. Figure 3. Decision-Making Process (WRED with Fair Queue) FQD (flow-queue depth): Per-flow queue depth, which is the number of packets in a particular flow queue FQL (flow-queue limit): Per-flow individual queue limit, set by the fair-queue queue-limit ltxgt command on the CLI AQD (aggregate queue depth): Virtual queue depth, which is the sum of all individual flow-queue depths AQL (aggregate queue limit): Virtual queue limit, set by the queue-limit ltxgt command on the CLI Q. How does fair queuing interact with queue limits when random detect is not configured A. Having only fair queue configured without random detect significantly changes how the QFP decides when to drop a packet. The flow diagram in Figure 4 describes the process. The key difference in this scenario is that the decision to drop is based solely on the comparison with the per-flow queue limit. There is no comparison against the aggregate queue limit. This lack of decision against the aggregate queue limit can be misleading because it is possible to manipulate the aggregate queue limit to affect changes to the per-flow queue limit (25 percent). Figure 4. Decision Making Process (WRED without Fair-Queue) FQD (flow-queue depth): Per-flow queue depth, which is the number of packets in a particular flow queue FQL (flow-queue limit): Per-flow individual queue limit, set by the fair-queue queue-limit ltxgt command on the CLI Q. How does fair queuing interact with qos pre-classify on tunnel interface and crypto-map A. Aligning with the behavior on Cisco IOS Software, the fair-queue command has no effect on the traffic in tunnels, even when qos pre-classify is configured on the tunnel or crypto-map. Beginning with Cisco IOS XE 16.4.1, the fair-queue pre-classify command on tunnelcrypto-map is supported, which will cause fair-queue to inspect interior IP addresses for hashing into the various fair-queues: In this case traffic will be distributed to 16 queues on physical interfaces by the inner header before encapsulated on tunnel or crypto-map, as long as qos pre-classify is also configured on the tunnel interface. Cisco EtherChannel QoS Please note that some documents refer to EtherChannel, while others may refer to Port-channel, Gigabit Etherchannel (GEC) or Link Aggregation (LAG). All of these technologies are the same. This document will use the term Etherchannel for the technology. Q. What modes are supported for Cisco EtherChannel QoS A. Cisco EtherChannel QoS on the Cisco ASR 1000 is supported in numerous configurations. There are requirements for coordinated configuration of VLAN load-balancing mode and QoS configurations. Following are the combinations of load balancing and QoS that are supported on a given port channel: With VLAN-based load balancing: Egress MQC queuing configuration on port-channel sub-interfaces Egress MQC queuing configuration on port-channel member Policy aggregation: Egress MQC queuing on sub-interface Ingress policing and marking on port-channel sub-interface Egress policing and marking on port-channel member link Policy aggregation for multiple queues Cisco IOS XE 2.6 and later Activestandby with LACP (1 1) Egress MQC queuing configuration on port-channel member link Cisco IOS XE 2.4 and later Egress MQC queuing configuration on Point-to-Point Protocol over Ethernet (PPPoE) sessions Policy map on session only, model D.2 Cisco IOS XE 3.7 and later Policy maps on sub-interface and session, model F Cisco IOS XE 3.8 and later EtherChannel with LACP and load balancing (activeactive) Egress MQC queuing configuration supported on port-channel member link Cisco IOS X E 2.5 and later Aggregate EtherChannel with flow-based load-balancing (activeactive) Egress and ingress MQC configurations are supported on the port-channel main interface Cisco IOS XE 3.12 and later Egress and ingress MQC configurations are supported on the port-channel sub-interfaces Cisco IOS XE 3.16.3, Cisco IOS XE 16.3.1 and later Q. Can different port channels in the same router have different supported QoS combinations A. Yes, each port channel is independent. If a global load-balancing method is configured, it could be necessary to configure a unique load-balancing method on a given port channel to allow certain QoS configurations. For example, if the global mode is configured to flow-based load balancing, you would need to configure VLAN-based load balancing on a specific port channel to configure ingress port-channel sub-interface policy maps. Q. Can I configure egress and ingress QoS simultaneously on a port-channel interface A. With VLAN-based load balancing, you can configure ingress QoS (non-queuing) on port-channel sub-interfaces, or you can configure the egress policy map on the member links or port-channel sub-interfaces (but not both simultaneously). If a port channel is configured to use aggregate QoS (through the platform qos port-channel-aggregate X command), then ingress and egress QoS commands may be configured on the port-channel main interface (or sub-interfaces of that port channel in Cisco IOS XE 16.3.1 or later, but not both simultaneously.) Q. Is egress policing or marking supported on port-channel sub-interfaces A. Yes, in Cisco IOS XE 3.16.3, or from Cisco IOS XE 16.3.1. In earlier releases, only policing and marking are supported on ingress port-channel sub-interfaces and egress member-link interfaces. But please note that you need to enable platform qos port-channel-aggregate X before creating the aggregate port channel. Only after that is policy map supported on port-channel sub-interfaces. Q. Can I configure a policy map on a port-channel main interface A. Yes, Cisco IOS XE 3.12 has support for aggregate Etherchannel. This allows configuration of a policy map on the port-channel main interface that will manage all traffic moving through the logical interface before the load-balancing mechanism distributes traffic to physical interfaces. This functionality requires configuration of platform qos port-channel-aggregate X prior to creating the port-channel interface. Q. Can 10 Gigabit Ethernet interfaces be used with aggregate Etherchannel A. Yes, Cisco IOS XE 3.16.3 and Cisco IOS XE 16.3.1 software add support for 10 Gigabit Ethernet interfaces in aggregate port channels. Table 7. Tunnel QoS Topics and Resources Q. Are tunnels (GRE, IPSEC, dVTI, sVTI) configured with queuing QoS supported over port-channel interfaces A. Yes, for certain tunnel types. In Cisco IOS XE 3.14 support was added for sourcing GRE tunnels from an aggregate port-channel interface. Queuing and non-queuing policy maps will be supported on the tunnels. A class-default-only shaping policy map will be supported on the aggregate port-channel interface. This does not include DMVPN or any other type of dynamic tunnels, with QoS sourced from an aggregate Gigabit EtherChannel (GEC) interface. Q. Are QoS policies supported on both the tunnel interface and the physicalsub-interface over which the tunnel is routed Q. Is GRE tunnel marking (marking the tunnel header) supported for IPSEC tunnels A. No. GRE tunnel marking is only supported for non-IPSEC tunnels. It is not blocked by the CLI, however, it simply does not work when configured. Q. Is IPv6 supported together with DMVPN and NHRP A. Yes, in IOS XE3.11, support was added for IPv6 DMVPN. As a result, the ip nhrp commands used on the tunnel interface were changed so that the preceeding ip keyword are not required. Q. Can DMVPN tunnels dynamically adjust QoS bandwidth based on changing network conditions A. Yes, with support for adaptive QoS over DMVPN using the shape adaptive MQC directive, QoS rate-limiting can be adjusted dynamically as network conditions change. Q. How is QoS supported on a DMVPNmGRE interface A. Service policy cannot be configured on a DMVPN tunnel interface directly. We support per-tunnel QoS on a DMVPNmGRE Tunnel interface. See ciscocenustddocsios-xmliossecconndmvpnconfigurationxe-16sec-conn-dmvpn-xe-16-booksec-conn-dmvpn-per-tunnel-qos. html. Meanwhile, a class-default-only shaper is supported on the underlay transport physical interface or sub-interface. Q. How does QoS interact with load sharing on broadband sessions (L2TP) A. CEF load sharing, by default, is per destination with a universal hash scheme. Flows are balanced by their sourcedestination IP address and a global ID changing with chassis reboot. In an L2TP scenario, LACs and LNSs can be connected by multiple physical links to let the tunneling flows be shared among them. However, each service policy applied on sessions (Virtual-TemplateVirtual-Access) has to find a fixed and single physical interface to root the queuing structure. This will break the load-sharing deployment. Now when any service policy gets applied to Virtual-Template, the per-destination load sharing is overridden by per-session QoS to per-prefix on the L2TP transport physical interface, as long as the load sharing is triggered on the L2TP tunnel (by ECMP between LAC and LNS, for example). This behavior can be checked with the show cef interface lt interface gt command. Per-prefix is a special mode that aggregates the flows by source prefix and returns a single adjacency without being hashed by data-plane in CEF. A limitation is that the per-prefix mode can be recovered to normal per-destination mode only by a chassis reload, due to performance considerations. Moreover, load-sharing functionality will be affected along L2TP tunnels when per-session QoS is installed. Priority (Low-Latency) Behavior Q. What is the difference in strict priority (priority with policer) and conditional priority (priority with a rate) A. Strict priority is always rate limited by the explicitly configured policer. The configuration looks like this: police cir 1000000 With strict priority, even if there is available bandwidth from the parent (that is, it is not congested), the policed Low-Latency Queuing (LLQ) class forwards only up to the policer rate. The policer always rate limits the traffic. Conditional priority configuration looks like this: Conditional priority rate limits traffic with a policer only if there is congestion at the parent (policy map or physical interface). The parent is congested if more than the configured maximum rate of traffic attempts to move through the class (andor interface). A conditional priority class can use more than its configured rate, but only if there is no contention with other classes in the same policy. As soon as there is congestion at the parent, the priority class(es) throttle back to the configured rate until there is no longer any congestion. Q. What are the restrictions for conditional priority (aka conditional policing) A. Conditional policing will not work at the bottom level of a three-level policy map That means the policer of the child policy will not kick in even when congestion happens in the top level or middle level. A BQS limitation may cause it, so this is a hardware-dependent limitation. Software-based platforms like CSR and ISR4000 have the expected behavior. Q. How many levels of priority does the Cisco ASR 1000 support A. Two levels of high-priority traffic are supported. Priority level 1 is serviced first, then priority level 2. After all priority traffic is forwarded, nonpriority traffic is serviced. Q. How are queues for multiple priority classes in a single policy map managed A. Individual queues are created for each class configured for priority treatment. Classification statistics and any related policer and marking statistics will be reported on a per class basis. The queue statistics for all the priority level 1 statistics will be reported in aggregate. The same applies for all of the priority level 2 statistics. The queuing statistics for priority levels 1 and 2 will not be aggregated together. Hierarchical Policy Maps Q. How many levels of hierarchical policy maps are supported A. In general, three levels of hierarchy are supported. If you mix queuing and nonqueuing policies together in a hierarchy, the nonqueuing policy maps must be at the leaf level of the policy map (child policy beneath grandparent and parent queuing policies, for example). In a three-level queuing policy map, the highest level (grandparent), can consist only of class default. In Cisco IOS XE 16.3.1, user-defined classes are also supported on the grandparent level of a three-level policy. However, on virtual interfaces (service group, tunnel, or sessions) and aggregated port-channel interfaces, the restriction is not lifted, so in these cases only class default is allowed. If the policy map is applied to a virtual interface (such as a tunnel or session), there may be additional restrictions limiting the hierarchy to two levels of queuing, depending on the configuration. Q. How is bandwidth shared among sub-interfaces (or tunnels) when a parent node is oversubscribed A. Sharing behavior is controlled with the bandwidth remaining value configured among the hierarchy nodes just below the congestion point. By default, all schedules have a bandwidth remaining ratio value of 1. Consider the example in Figure 5. Figure 5. Example of Sharing Behavior In this example, the topmost (grandparent, physical interface with a class-default shaper at 20 Mbps) is congested. Three tunnels are egressing the router through this physical interface. The leftmost and rightmost tunnels are not configured with a bandwidth remaining ratio (BRR) and thus use the default value of 1. The center tunnel has a BRR value of 2, configured in its parent policy map. Since the 20 Mbps shaper is congested, the tunnels have to share the available bandwidth. The center tunnel has access to at least half (2 (121) ) of the 20 Mbps available on the grandparent node. The left and right tunnels each have access to at least 25 percent of the grandparents overall bandwidth (1 ( 1 2 1) ). This is the most simple case where all the tunnels are overdriven. In a new scenario, assume that the leftmost tunnel has no traffic. In this case, the center tunnel would get access to 2 ( 2 1 ), or 66.67 percent, of 20 Mbps while the rightmost tunnel receives 33.33 percent. As soon as the leftmost tunnel has traffic, it would potentially have access to up to 10 Mbps. Q. What are the restrictions on the use of bandwidth in Cisco IOS XE Software A. In classic Cisco IOS Software, it is permitted to configure bandwidth at the leaf and intermediate nodes of a hierarchy. In IOS XE, bandwidth is only allowed at the leaf node of a hierarchy. This is a restriction in software and may be lifted in the future. For current deployments, where a classic IOS QoS policy map is being moved to a IOS XE platform, the best option is to convert the intermediate node bandwidth commands to bandwidth remaining commands. bandwidth remaining percent or bandwidth remaining ratio commands could be used to achieve very similar behavior. Q. What is the impact of using very slow and fast rate shapers on the same physical interface A. Neither IOS XE software, nor the ASR 1000 QFP hardware impose any limitations on the range of rates that can be used on a given physical interface. However, the hardware will use the lowest rate configured at a given schedule level to decide how often to check if traffic is permitted from a given level of the schedule. As a general rule, if all the shapers at a given level of the hierarchy are within a 1:1000 ratio, the jitter profile of the transmitted traffic will be within normal parameters. If the range of shapers is outside the 1:1000 range, the schedule will be checked based on the slowest rate configured. The slower the rate, the less often the hardware checks the schedule for transmitting. This can cause the faster schedule nodes to transmit in a bursty nature since there will be fewer opportunities to transmit. A workaround to avoid the bursty transmission of the high rate traffic is to put the slow and fast rates at different levels of the hierarchy. Consider a scenario where multiple Ethernet sub-interfaces on a given physical interface are configured with two level policy maps, and parent shaper rates ranging from 500 Mbps to 64 kbps. 500,000 kbps. 64 kbps is clearly beyond the 1000:1 ratio. The solution to this issue would be to add a grandparent shaper to the slow rate policy maps. The grandparent class-default-only shaper could shape at 500 Mbps the parent shaper would be the original 64 kbps rate. By introducing this extra level the topmost schedule nodes are all at a given level of magnitude. The grandparent shapers on the slow rate sub-interfaces will never actually rate-limit traffic since the rate-limiting will be completed by the shaper at the parent level (middle level). This configuration allows the hardware to appropriately schedule the other, faster rate shapers that are still two level hierarchies and provide the slow rate interfaces with the appropriate behavior. Interaction with Cryptography Q. How is QoS low-latency priority queuing acknowledged as traffic is sent to the cryptography engine A. There are high - and low-priority queues for traffic being sent to the cryptography engine. Any traffic that matches an egress high-priority QoS class is sent through the high-priority queue to the cryptography engine. Priority-levels 1 and 2 traffic move through a single high-priority queue to the cryptography hardware. All other traffic is sent through the low-priority queue to the cryptography hardware. After the traffic has returned from the cryptography hardware, the priority-levels 1 and 2 are honored in independent queues, followed by nonpriority traffic. PAKPRI traffic will move through the low-prioirty queue for cryptography by default. Only if the PAKPRI traffic is classified into a high priority class via a MQC policy-map will it use the high priority queue for cryptography. Q. How does cryptography affect the size of packets that QoS observes A. Queuing functions on physical interfaces or tunnel interfaces see the complete packet size including any cryptography overhead that was added to the packet. If the policy map is applied to the tunnel interface, policers do not observe the Layer 2 andor cryptography overhead. Note that if a policer is used on a priority class, it is advisable to adjust the policer rate down accordingly because the observed rate for the priority policer will be different from the rates used for classes configured with other queuing functions. Q. Why do cryptographic connections sometimes fail when QoS is configured A. Cryptography happens before egress QoS queuing. When encryption occurs a sequence number is sometimes included in the encryption headers. If the packets are subsequently delayed significantly because of high queue depths, the remote router can declare the packets outside of the anti-replay window and drop the encrypted connection. Potential workarounds include increasing the available bandwidth with QoS (to decrease latency) or increase the replay window size. Q. How can packet drops to the cryptography engine be monitored A. There are high and low priority queues for traffic destined for cryptography. Those queues can be monitored via platform hardware commands. The following gives an example of how to monitor those queues. You can see statistics for packet and byte drops with the tail drop statistic. plevel 0 is low priority traffic and plevel 1 is high priority traffic. ASR1000show plat hardware qfp active infrastructure bqs queue output default all inc crypto Interface: internal10crypto:0 QFP: 0.0 ifh: 6 Num QueuesSchedules: 2 ASR1000show plat hardware qfp active infrastructure bqs queue output default interface-string internal10crypto:0 Interface: internal10crypto:0 QFP: 0.0 ifh: 6 Num QueuesSchedules: 2 Index 0 (Queue ID:0x88, Name: i2lif6cpp0prio0) Software Control Info: (cache) queue id: 0x00000088, wred: 0x88b168c2, qlimit (bytes): 73125056 parentsid: 0x261, debugname: i2lif6cpp0prio0 swflags: 0x08000001, swstate: 0x00000c01, portuidb: 0 origmin. 0. min: 0 minqos. 0. mindflt: 0 origmax. 0. max: 0 maxqos. 0. maxdflt: 0 plevel. 0 . priority: 65535 tail drops (bytes): 0. (packets): 0 total enqs (bytes): 0. (packets): 0 queuedepth (bytes): 0 Index 1 (Queue ID:0x89, Name: i2lif6cpp0prio1) Software Control Info: (cache) queue id: 0x00000089, wred: 0x88b168d2, qlimit (bytes): 73125056 parentsid: 0x262, debugname: i2lif6cpp0prio1 swflags: 0x18000001, swstate: 0x00000c01, portuidb: 0 origmin. 0. min: 0 minqos. 0. mindflt: 0 origmax. 0. max: 0 maxqos. 0. maxdflt: 0 plevel. 1, priority: 0 tail drops (bytes): 0. (packets): 0 total enqs (bytes): 0. (packets): 0 queuedepth (bytes): 0 Q. In what order should I add commands to a class map A. Although there is no strict requirement that you add commands in a particular order, the following describes the best practice: For queuing classes, add commands in this order: Queuing features ( shape, bandwidth, bandwidth remaining, and priority ) For nonqueuing classes ordering is not as important, but the following order is preferred: Q. When is it acceptable to configure multiple policy maps for traffic A. First it is important to understand the difference in queuing and nonqueuing policy maps. Queuing policy maps include the following features in at least one class: The practice of configuring multiple queuing policy maps for traffic to traverse is sometimes called multiple policy maps (MPOL). In general on the Cisco ASR 1000, it is acceptable to configure only one queuing policy map that traffic will be forwarded through in the egress direction. For example, if a Gigabit Ethernet sub-interface has a queuing policy map configured, it is not possible to configure another queuing policy map on the main interface. Certain configurations do not carry this limitation, however. Here is a list of those scenarios where multiple queuing policy maps are supported: Broadband QoS, class default-only queuing policy map on Ethernet sub-interface, and two-level hierarchical queuing policy map on session (through virtual template or RADIUS configuration) (sometimes referred to as model F broadband QoS). Tunnels (GRE, DMVPN, sVTI, and dVTI) with two-level hierarchical queuing policy map and the targeted egress physical interface with a class default-only flat queuing policy map with a maximum rate configured ( shape ): The tunnels may target the physical interface directly or depend on the routing table to point toward the egress interface. This feature is supported as of Cisco IOS XE 3.6. Policy aggregation where priority queues are configured on the sub-interfaces and nonpriority queues are configured on the main interface: This scenario requires the use of service fragments. Policy aggregation where priority queues are configured on the main interface and nonpriority queues are configured on the sub-interfaces: This scenario requires the use of service fragments.

No comments:

Post a Comment