TSTP Solution File: RNG081+1 by ePrincess---1.0

View Problem - Process Solution

%------------------------------------------------------------------------------
% File     : ePrincess---1.0
% Problem  : RNG081+1 : TPTP v8.1.0. Released v4.0.0.
% Transfm  : none
% Format   : tptp:raw
% Command  : ePrincess-casc -timeout=%d %s

% Computer : n024.cluster.edu
% Model    : x86_64 x86_64
% CPU      : Intel(R) Xeon(R) CPU E5-2620 v4 2.10GHz
% Memory   : 8042.1875MB
% OS       : Linux 3.10.0-693.el7.x86_64
% CPULimit : 300s
% WCLimit  : 600s
% DateTime : Mon Jul 18 20:25:18 EDT 2022

% Result   : Theorem 5.03s 1.83s
% Output   : Proof 8.65s
% Verified : 
% SZS Type : -

% Comments : 
%------------------------------------------------------------------------------
%----WARNING: Could not form TPTP format derivation
%------------------------------------------------------------------------------
%----ORIGINAL SYSTEM OUTPUT
% 0.00/0.11  % Problem  : RNG081+1 : TPTP v8.1.0. Released v4.0.0.
% 0.11/0.12  % Command  : ePrincess-casc -timeout=%d %s
% 0.12/0.33  % Computer : n024.cluster.edu
% 0.12/0.33  % Model    : x86_64 x86_64
% 0.12/0.33  % CPU      : Intel(R) Xeon(R) CPU E5-2620 v4 @ 2.10GHz
% 0.12/0.33  % Memory   : 8042.1875MB
% 0.12/0.33  % OS       : Linux 3.10.0-693.el7.x86_64
% 0.12/0.33  % CPULimit : 300
% 0.12/0.33  % WCLimit  : 600
% 0.12/0.33  % DateTime : Mon May 30 09:05:51 EDT 2022
% 0.12/0.33  % CPUTime  : 
% 0.55/0.58          ____       _                          
% 0.55/0.58    ___  / __ \_____(_)___  ________  __________
% 0.55/0.58   / _ \/ /_/ / ___/ / __ \/ ___/ _ \/ ___/ ___/
% 0.55/0.58  /  __/ ____/ /  / / / / / /__/  __(__  |__  ) 
% 0.55/0.58  \___/_/   /_/  /_/_/ /_/\___/\___/____/____/  
% 0.55/0.58  
% 0.55/0.58  A Theorem Prover for First-Order Logic
% 0.61/0.59  (ePrincess v.1.0)
% 0.61/0.59  
% 0.61/0.59  (c) Philipp Rümmer, 2009-2015
% 0.61/0.59  (c) Peter Backeman, 2014-2015
% 0.61/0.59  (contributions by Angelo Brillout, Peter Baumgartner)
% 0.61/0.59  Free software under GNU Lesser General Public License (LGPL).
% 0.61/0.59  Bug reports to peter@backeman.se
% 0.61/0.59  
% 0.61/0.59  For more information, visit http://user.uu.se/~petba168/breu/
% 0.61/0.59  
% 0.61/0.59  Loading /export/starexec/sandbox/benchmark/theBenchmark.p ...
% 0.71/0.66  Prover 0: Options:  -triggersInConjecture -genTotalityAxioms -tightFunctionScopes -clausifier=simple -reverseFunctionalityPropagation +boolFunsAsPreds -triggerStrategy=allMaximal -resolutionMethod=nonUnifying +ignoreQuantifiers -generateTriggers=all
% 1.90/1.01  Prover 0: Preprocessing ...
% 4.20/1.63  Prover 0: Constructing countermodel ...
% 5.03/1.83  Prover 0: proved (1165ms)
% 5.03/1.83  
% 5.03/1.83  No countermodel exists, formula is valid
% 5.03/1.83  % SZS status Theorem for theBenchmark
% 5.03/1.83  
% 5.03/1.83  Generating proof ... found it (size 99)
% 8.09/2.53  
% 8.09/2.53  % SZS output start Proof for theBenchmark
% 8.09/2.53  Assumed formulas after preprocessing and simplification: 
% 8.09/2.53  | (0)  ? [v0] :  ? [v1] :  ? [v2] :  ? [v3] :  ? [v4] :  ? [v5] :  ? [v6] :  ? [v7] :  ? [v8] :  ? [v9] : (sdtasasdt0(xt, xt) = v8 & sdtasasdt0(xs, xt) = v5 & sdtasasdt0(xs, xs) = v7 & sziznziztdt0(xt) = v2 & sziznziztdt0(xs) = v1 & sdtlbdtrb0(xt, sz00) = v4 & sdtlbdtrb0(xs, sz00) = v3 & aDimensionOf0(xt) = sz00 & aDimensionOf0(xs) = sz00 & smndt0(sz0z00) = v0 & sdtasdt0(v7, v8) = v9 & sdtasdt0(v5, v5) = v6 & aVector0(xt) & aVector0(xs) & aScalar0(sz0z00) & aNaturalNumber0(sz00) &  ~ sdtlseqdt0(v6, v9) &  ! [v10] :  ! [v11] :  ! [v12] :  ! [v13] :  ! [v14] :  ! [v15] :  ! [v16] :  ! [v17] :  ! [v18] :  ! [v19] :  ! [v20] : ( ~ (sdtasdt0(v11, v13) = v18) |  ~ (sdtasdt0(v11, v12) = v17) |  ~ (sdtasdt0(v10, v13) = v15) |  ~ (sdtasdt0(v10, v12) = v14) |  ~ (sdtpldt0(v17, v18) = v19) |  ~ (sdtpldt0(v16, v19) = v20) |  ~ (sdtpldt0(v14, v15) = v16) |  ~ aScalar0(v13) |  ~ aScalar0(v12) |  ~ aScalar0(v11) |  ~ aScalar0(v10) |  ? [v21] :  ? [v22] : (sdtasdt0(v21, v22) = v20 & sdtpldt0(v12, v13) = v22 & sdtpldt0(v10, v11) = v21)) &  ! [v10] :  ! [v11] :  ! [v12] :  ! [v13] :  ! [v14] :  ! [v15] :  ! [v16] :  ! [v17] :  ! [v18] :  ! [v19] : (v12 = sz00 |  ~ (sdtasasdt0(v13, v14) = v15) |  ~ (sziznziztdt0(v11) = v14) |  ~ (sziznziztdt0(v10) = v13) |  ~ (sdtlbdtrb0(v11, v12) = v17) |  ~ (sdtlbdtrb0(v10, v12) = v16) |  ~ (aDimensionOf0(v11) = v12) |  ~ (aDimensionOf0(v10) = v12) |  ~ (sdtasdt0(v16, v17) = v18) |  ~ (sdtpldt0(v15, v18) = v19) |  ~ aVector0(v11) |  ~ aVector0(v10) | sdtasasdt0(v10, v11) = v19) &  ! [v10] :  ! [v11] :  ! [v12] :  ! [v13] :  ! [v14] :  ! [v15] :  ! [v16] : ( ~ (sdtasdt0(v14, v15) = v16) |  ~ (sdtpldt0(v12, v13) = v15) |  ~ (sdtpldt0(v10, v11) = v14) |  ~ aScalar0(v13) |  ~ aScalar0(v12) |  ~ aScalar0(v11) |  ~ aScalar0(v10) |  ? [v17] :  ? [v18] :  ? [v19] :  ? [v20] :  ? [v21] :  ? [v22] : (sdtasdt0(v11, v13) = v21 & sdtasdt0(v11, v12) = v20 & sdtasdt0(v10, v13) = v18 & sdtasdt0(v10, v12) = v17 & sdtpldt0(v20, v21) = v22 & sdtpldt0(v19, v22) = v16 & sdtpldt0(v17, v18) = v19)) &  ! [v10] :  ! [v11] :  ! [v12] :  ! [v13] :  ! [v14] :  ! [v15] : ( ~ (sdtasdt0(v11, v13) = v15) |  ~ (sdtasdt0(v10, v12) = v14) |  ~ sdtlseqdt0(v12, v13) |  ~ sdtlseqdt0(v10, v11) |  ~ sdtlseqdt0(sz0z00, v12) |  ~ aScalar0(v13) |  ~ aScalar0(v12) |  ~ aScalar0(v11) |  ~ aScalar0(v10) | sdtlseqdt0(v14, v15)) &  ! [v10] :  ! [v11] :  ! [v12] :  ! [v13] :  ! [v14] :  ! [v15] : ( ~ (sdtasdt0(v11, v12) = v14) |  ~ (sdtasdt0(v10, v12) = v13) |  ~ (sdtpldt0(v13, v14) = v15) |  ~ aScalar0(v12) |  ~ aScalar0(v11) |  ~ aScalar0(v10) |  ? [v16] :  ? [v17] :  ? [v18] :  ? [v19] : (sdtasdt0(v19, v12) = v15 & sdtasdt0(v10, v16) = v17 & sdtasdt0(v10, v11) = v18 & sdtpldt0(v18, v13) = v17 & sdtpldt0(v11, v12) = v16 & sdtpldt0(v10, v11) = v19)) &  ! [v10] :  ! [v11] :  ! [v12] :  ! [v13] :  ! [v14] :  ! [v15] : ( ~ (sdtasdt0(v10, v12) = v14) |  ~ (sdtasdt0(v10, v11) = v13) |  ~ (sdtpldt0(v13, v14) = v15) |  ~ aScalar0(v12) |  ~ aScalar0(v11) |  ~ aScalar0(v10) |  ? [v16] :  ? [v17] :  ? [v18] :  ? [v19] : (sdtasdt0(v17, v12) = v18 & sdtasdt0(v11, v12) = v19 & sdtasdt0(v10, v16) = v15 & sdtpldt0(v14, v19) = v18 & sdtpldt0(v11, v12) = v16 & sdtpldt0(v10, v11) = v17)) &  ! [v10] :  ! [v11] :  ! [v12] :  ! [v13] :  ! [v14] :  ! [v15] : ( ~ (sdtpldt0(v11, v13) = v15) |  ~ (sdtpldt0(v10, v12) = v14) |  ~ sdtlseqdt0(v12, v13) |  ~ sdtlseqdt0(v10, v11) |  ~ aScalar0(v13) |  ~ aScalar0(v12) |  ~ aScalar0(v11) |  ~ aScalar0(v10) | sdtlseqdt0(v14, v15)) &  ! [v10] :  ! [v11] :  ! [v12] :  ! [v13] :  ! [v14] : ( ~ (sdtasasdt0(v11, v11) = v13) |  ~ (sdtasasdt0(v10, v10) = v12) |  ~ (sdtasdt0(v12, v13) = v14) |  ~ aVector0(v11) |  ~ aVector0(v10) |  ? [v15] :  ? [v16] :  ? [v17] :  ? [v18] : (sdtasasdt0(v10, v11) = v17 & aDimensionOf0(v11) = v16 & aDimensionOf0(v10) = v15 & sdtasdt0(v17, v17) = v18 & ( ~ (v16 = v15) |  ~ iLess0(v15, sz00) | sdtlseqdt0(v18, v14)))) &  ! [v10] :  ! [v11] :  ! [v12] :  ! [v13] :  ! [v14] : ( ~ (smndt0(v11) = v13) |  ~ (smndt0(v10) = v12) |  ~ (sdtasdt0(v12, v13) = v14) |  ~ aScalar0(v11) |  ~ aScalar0(v10) | sdtasdt0(v10, v11) = v14) &  ! [v10] :  ! [v11] :  ! [v12] :  ! [v13] :  ! [v14] : ( ~ (sdtasdt0(v13, v12) = v14) |  ~ (sdtasdt0(v10, v11) = v13) |  ~ aScalar0(v12) |  ~ aScalar0(v11) |  ~ aScalar0(v10) |  ? [v15] :  ? [v16] :  ? [v17] :  ? [v18] : (sdtasdt0(v11, v12) = v18 & sdtasdt0(v11, v10) = v13 & sdtasdt0(v10, v18) = v14 & sdtpldt0(v15, v12) = v16 & sdtpldt0(v11, v12) = v17 & sdtpldt0(v11, v10) = v15 & sdtpldt0(v10, v17) = v16 & sdtpldt0(v10, v11) = v15)) &  ! [v10] :  ! [v11] :  ! [v12] :  ! [v13] :  ! [v14] : ( ~ (sdtasdt0(v13, v12) = v14) |  ~ (sdtpldt0(v10, v11) = v13) |  ~ aScalar0(v12) |  ~ aScalar0(v11) |  ~ aScalar0(v10) |  ? [v15] :  ? [v16] :  ? [v17] :  ? [v18] :  ? [v19] : (sdtasdt0(v11, v12) = v19 & sdtasdt0(v10, v15) = v16 & sdtasdt0(v10, v12) = v18 & sdtasdt0(v10, v11) = v17 & sdtpldt0(v18, v19) = v14 & sdtpldt0(v17, v18) = v16 & sdtpldt0(v11, v12) = v15)) &  ! [v10] :  ! [v11] :  ! [v12] :  ! [v13] :  ! [v14] : ( ~ (sdtasdt0(v11, v12) = v13) |  ~ (sdtasdt0(v10, v13) = v14) |  ~ aScalar0(v12) |  ~ aScalar0(v11) |  ~ aScalar0(v10) |  ? [v15] :  ? [v16] :  ? [v17] :  ? [v18] : (sdtasdt0(v18, v12) = v14 & sdtasdt0(v11, v10) = v18 & sdtasdt0(v10, v11) = v18 & sdtpldt0(v15, v12) = v16 & sdtpldt0(v11, v12) = v17 & sdtpldt0(v11, v10) = v15 & sdtpldt0(v10, v17) = v16 & sdtpldt0(v10, v11) = v15)) &  ! [v10] :  ! [v11] :  ! [v12] :  ! [v13] :  ! [v14] : ( ~ (sdtasdt0(v10, v13) = v14) |  ~ (sdtpldt0(v11, v12) = v13) |  ~ aScalar0(v12) |  ~ aScalar0(v11) |  ~ aScalar0(v10) |  ? [v15] :  ? [v16] :  ? [v17] :  ? [v18] :  ? [v19] : (sdtasdt0(v17, v12) = v18 & sdtasdt0(v11, v12) = v19 & sdtasdt0(v10, v12) = v16 & sdtasdt0(v10, v11) = v15 & sdtpldt0(v16, v19) = v18 & sdtpldt0(v15, v16) = v14 & sdtpldt0(v10, v11) = v17)) &  ! [v10] :  ! [v11] :  ! [v12] :  ! [v13] :  ! [v14] : ( ~ (sdtpldt0(v13, v12) = v14) |  ~ (sdtpldt0(v10, v11) = v13) |  ~ aScalar0(v12) |  ~ aScalar0(v11) |  ~ aScalar0(v10) |  ? [v15] :  ? [v16] :  ? [v17] :  ? [v18] : (sdtasdt0(v16, v12) = v17 & sdtasdt0(v11, v12) = v18 & sdtasdt0(v11, v10) = v16 & sdtasdt0(v10, v18) = v17 & sdtasdt0(v10, v11) = v16 & sdtpldt0(v11, v12) = v15 & sdtpldt0(v11, v10) = v13 & sdtpldt0(v10, v15) = v14)) &  ! [v10] :  ! [v11] :  ! [v12] :  ! [v13] :  ! [v14] : ( ~ (sdtpldt0(v11, v12) = v13) |  ~ (sdtpldt0(v10, v13) = v14) |  ~ aScalar0(v12) |  ~ aScalar0(v11) |  ~ aScalar0(v10) |  ? [v15] :  ? [v16] :  ? [v17] :  ? [v18] : (sdtasdt0(v16, v12) = v17 & sdtasdt0(v11, v12) = v18 & sdtasdt0(v11, v10) = v16 & sdtasdt0(v10, v18) = v17 & sdtasdt0(v10, v11) = v16 & sdtpldt0(v15, v12) = v14 & sdtpldt0(v11, v10) = v15 & sdtpldt0(v10, v11) = v15)) &  ! [v10] :  ! [v11] :  ! [v12] :  ! [v13] : (v12 = sz00 |  ~ (sziznziztdt0(v10) = v13) |  ~ (aDimensionOf0(v11) = v12) |  ~ aVector0(v11) |  ~ aVector0(v10) |  ? [v14] :  ? [v15] :  ? [v16] :  ? [v17] : (sziznziztdt0(v11) = v16 & aDimensionOf0(v16) = v17 & aDimensionOf0(v13) = v15 & aDimensionOf0(v10) = v14 & ( ~ (v14 = v12) | v17 = v15))) &  ! [v10] :  ! [v11] :  ! [v12] :  ! [v13] : (v11 = v10 |  ~ (sdtasasdt0(v13, v12) = v11) |  ~ (sdtasasdt0(v13, v12) = v10)) &  ! [v10] :  ! [v11] :  ! [v12] :  ! [v13] : (v11 = v10 |  ~ (sdtlbdtrb0(v13, v12) = v11) |  ~ (sdtlbdtrb0(v13, v12) = v10)) &  ! [v10] :  ! [v11] :  ! [v12] :  ! [v13] : (v11 = v10 |  ~ (sdtasdt0(v13, v12) = v11) |  ~ (sdtasdt0(v13, v12) = v10)) &  ! [v10] :  ! [v11] :  ! [v12] :  ! [v13] : (v11 = v10 |  ~ (sdtpldt0(v13, v12) = v11) |  ~ (sdtpldt0(v13, v12) = v10)) &  ! [v10] :  ! [v11] :  ! [v12] :  ! [v13] : ( ~ (sdtasasdt0(v10, v11) = v12) |  ~ (sdtasdt0(v12, v12) = v13) |  ~ aVector0(v11) |  ~ aVector0(v10) |  ? [v14] :  ? [v15] :  ? [v16] :  ? [v17] :  ? [v18] : (sdtasasdt0(v11, v11) = v17 & sdtasasdt0(v10, v10) = v16 & aDimensionOf0(v11) = v15 & aDimensionOf0(v10) = v14 & sdtasdt0(v16, v17) = v18 & ( ~ (v15 = v14) |  ~ iLess0(v14, sz00) | sdtlseqdt0(v13, v18)))) &  ! [v10] :  ! [v11] :  ! [v12] :  ! [v13] : ( ~ (sziznziztdt0(v11) = v13) |  ~ (sziznziztdt0(v10) = v12) |  ~ aVector0(v11) |  ~ aVector0(v10) |  ? [v14] :  ? [v15] :  ? [v16] :  ? [v17] : (aDimensionOf0(v13) = v17 & aDimensionOf0(v12) = v16 & aDimensionOf0(v11) = v15 & aDimensionOf0(v10) = v14 & ( ~ (v15 = v14) | v17 = v16 | v14 = sz00))) &  ! [v10] :  ! [v11] :  ! [v12] :  ! [v13] : ( ~ (sziznziztdt0(v11) = v13) |  ~ (aDimensionOf0(v10) = v12) |  ~ aVector0(v11) |  ~ aVector0(v10) |  ? [v14] :  ? [v15] :  ? [v16] :  ? [v17] : (sziznziztdt0(v10) = v15 & aDimensionOf0(v15) = v16 & aDimensionOf0(v13) = v17 & aDimensionOf0(v11) = v14 & ( ~ (v14 = v12) | v17 = v16 | v12 = sz00))) &  ! [v10] :  ! [v11] :  ! [v12] :  ! [v13] : ( ~ (smndt0(v11) = v12) |  ~ (sdtasdt0(v10, v12) = v13) |  ~ aScalar0(v11) |  ~ aScalar0(v10) |  ? [v14] :  ? [v15] : (smndt0(v14) = v13 & smndt0(v10) = v15 & sdtasdt0(v15, v11) = v13 & sdtasdt0(v10, v11) = v14)) &  ! [v10] :  ! [v11] :  ! [v12] :  ! [v13] : ( ~ (smndt0(v10) = v12) |  ~ (sdtasdt0(v12, v11) = v13) |  ~ aScalar0(v11) |  ~ aScalar0(v10) |  ? [v14] :  ? [v15] : (smndt0(v15) = v13 & smndt0(v11) = v14 & sdtasdt0(v10, v14) = v13 & sdtasdt0(v10, v11) = v15)) &  ! [v10] :  ! [v11] :  ! [v12] : (v12 = sz0z00 |  ~ (sdtasasdt0(v10, v11) = v12) |  ~ aVector0(v11) |  ~ aVector0(v10) |  ? [v13] :  ? [v14] : (aDimensionOf0(v11) = v14 & aDimensionOf0(v10) = v13 & ( ~ (v14 = sz00) |  ~ (v13 = sz00)))) &  ! [v10] :  ! [v11] :  ! [v12] : (v12 = sz0z00 |  ~ (smndt0(v10) = v11) |  ~ (sdtpldt0(v11, v10) = v12) |  ~ aScalar0(v10)) &  ! [v10] :  ! [v11] :  ! [v12] : (v12 = sz0z00 |  ~ (smndt0(v10) = v11) |  ~ (sdtpldt0(v10, v11) = v12) |  ~ aScalar0(v10)) &  ! [v10] :  ! [v11] :  ! [v12] : (v12 = sz00 |  ~ (aDimensionOf0(v11) = v12) |  ~ (aDimensionOf0(v10) = v12) |  ~ aVector0(v11) |  ~ aVector0(v10) |  ? [v13] :  ? [v14] :  ? [v15] :  ? [v16] :  ? [v17] :  ? [v18] :  ? [v19] : (sdtasasdt0(v14, v15) = v16 & sdtasasdt0(v10, v11) = v13 & sziznziztdt0(v11) = v15 & sziznziztdt0(v10) = v14 & sdtlbdtrb0(v11, v12) = v18 & sdtlbdtrb0(v10, v12) = v17 & sdtasdt0(v17, v18) = v19 & sdtpldt0(v16, v19) = v13)) &  ! [v10] :  ! [v11] :  ! [v12] : (v12 = sz00 |  ~ (aDimensionOf0(v11) = v12) |  ~ (aDimensionOf0(v10) = v12) |  ~ aVector0(v11) |  ~ aVector0(v10) |  ? [v13] :  ? [v14] :  ? [v15] : (sziznziztdt0(v11) = v15 & sziznziztdt0(v10) = v13 & aDimensionOf0(v15) = v14 & aDimensionOf0(v13) = v14)) &  ! [v10] :  ! [v11] :  ! [v12] : (v11 = v10 |  ~ (sziznziztdt0(v12) = v11) |  ~ (sziznziztdt0(v12) = v10)) &  ! [v10] :  ! [v11] :  ! [v12] : (v11 = v10 |  ~ (aDimensionOf0(v12) = v11) |  ~ (aDimensionOf0(v12) = v10)) &  ! [v10] :  ! [v11] :  ! [v12] : (v11 = v10 |  ~ (smndt0(v12) = v11) |  ~ (smndt0(v12) = v10)) &  ! [v10] :  ! [v11] :  ! [v12] : (v11 = v10 |  ~ (sdtasdt0(v11, v11) = v12) |  ~ (sdtasdt0(v10, v10) = v12) |  ~ sdtlseqdt0(sz0z00, v11) |  ~ sdtlseqdt0(sz0z00, v10) |  ~ aScalar0(v11) |  ~ aScalar0(v10)) &  ! [v10] :  ! [v11] :  ! [v12] : (v11 = v10 |  ~ (szszuzczcdt0(v12) = v11) |  ~ (szszuzczcdt0(v12) = v10)) &  ! [v10] :  ! [v11] :  ! [v12] : (v11 = v10 |  ~ (szszuzczcdt0(v11) = v12) |  ~ (szszuzczcdt0(v10) = v12) |  ~ aNaturalNumber0(v11) |  ~ aNaturalNumber0(v10)) &  ! [v10] :  ! [v11] :  ! [v12] : (v0 = sz0z00 |  ~ (smndt0(v10) = v11) |  ~ (sdtpldt0(v11, v10) = v12) |  ~ aScalar0(v10)) &  ! [v10] :  ! [v11] :  ! [v12] : (v0 = sz0z00 |  ~ (smndt0(v10) = v11) |  ~ (sdtpldt0(v10, v11) = v12) |  ~ aScalar0(v10)) &  ! [v10] :  ! [v11] :  ! [v12] : ( ~ (sdtasasdt0(v10, v11) = v12) |  ~ aVector0(v11) |  ~ aVector0(v10) | aScalar0(v12) |  ? [v13] :  ? [v14] : ( ~ (v14 = v13) & aDimensionOf0(v11) = v14 & aDimensionOf0(v10) = v13)) &  ! [v10] :  ! [v11] :  ! [v12] : ( ~ (sdtasasdt0(v10, v11) = v12) |  ~ aVector0(v11) |  ~ aVector0(v10) |  ? [v13] :  ? [v14] :  ? [v15] :  ? [v16] :  ? [v17] :  ? [v18] :  ? [v19] :  ? [v20] :  ? [v21] : (sdtasasdt0(v15, v16) = v17 & sziznziztdt0(v11) = v16 & sziznziztdt0(v10) = v15 & sdtlbdtrb0(v11, v14) = v19 & sdtlbdtrb0(v10, v13) = v18 & aDimensionOf0(v11) = v14 & aDimensionOf0(v10) = v13 & sdtasdt0(v18, v19) = v20 & sdtpldt0(v17, v20) = v21 & ( ~ (v14 = v13) | v21 = v12 | v13 = sz00))) &  ! [v10] :  ! [v11] :  ! [v12] : ( ~ (sdtlbdtrb0(v10, v11) = v12) |  ~ aVector0(v10) |  ~ aNaturalNumber0(v11) | aScalar0(v12)) &  ! [v10] :  ! [v11] :  ! [v12] : ( ~ (aDimensionOf0(v11) = v12) |  ~ (aDimensionOf0(v10) = v12) |  ~ aVector0(v11) |  ~ aVector0(v10) |  ~ iLess0(v12, sz00) |  ? [v13] :  ? [v14] :  ? [v15] :  ? [v16] :  ? [v17] : (sdtasasdt0(v11, v11) = v16 & sdtasasdt0(v10, v11) = v13 & sdtasasdt0(v10, v10) = v15 & sdtasdt0(v15, v16) = v17 & sdtasdt0(v13, v13) = v14 & sdtlseqdt0(v14, v17))) &  ! [v10] :  ! [v11] :  ! [v12] : ( ~ (aDimensionOf0(v11) = v12) |  ~ (aDimensionOf0(v10) = v12) |  ~ aVector0(v11) |  ~ aVector0(v10) |  ? [v13] : (sdtasasdt0(v10, v11) = v13 & aScalar0(v13))) &  ! [v10] :  ! [v11] :  ! [v12] : ( ~ (smndt0(v10) = v11) |  ~ (sdtpldt0(v11, v10) = v12) |  ~ aScalar0(v10) | (smndt0(v11) = v10 & sdtasdt0(v10, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v10) = sz0z00 & sdtpldt0(v10, v11) = sz0z00 & sdtpldt0(v10, sz0z00) = v10 & sdtpldt0(sz0z00, v10) = v10)) &  ! [v10] :  ! [v11] :  ! [v12] : ( ~ (smndt0(v10) = v11) |  ~ (sdtpldt0(v10, v11) = v12) |  ~ aScalar0(v10) | (smndt0(v11) = v10 & sdtasdt0(v10, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v10) = sz0z00 & sdtpldt0(v11, v10) = sz0z00 & sdtpldt0(v10, sz0z00) = v10 & sdtpldt0(sz0z00, v10) = v10)) &  ! [v10] :  ! [v11] :  ! [v12] : ( ~ (sdtasdt0(v10, v11) = v12) |  ~ sdtlseqdt0(sz0z00, v11) |  ~ sdtlseqdt0(sz0z00, v10) |  ~ aScalar0(v11) |  ~ aScalar0(v10) | sdtlseqdt0(sz0z00, v12)) &  ! [v10] :  ! [v11] :  ! [v12] : ( ~ (sdtasdt0(v10, v11) = v12) |  ~ sdtlseqdt0(sz0z00, v11) |  ~ sdtlseqdt0(sz0z00, v10) |  ~ aScalar0(v11) |  ~ aScalar0(v10) |  ? [v13] : (sdtpldt0(v10, v11) = v13 & sdtlseqdt0(sz0z00, v13))) &  ! [v10] :  ! [v11] :  ! [v12] : ( ~ (sdtasdt0(v10, v11) = v12) |  ~ aScalar0(v11) |  ~ aScalar0(v10) | aScalar0(v12)) &  ! [v10] :  ! [v11] :  ! [v12] : ( ~ (sdtasdt0(v10, v11) = v12) |  ~ aScalar0(v11) |  ~ aScalar0(v10) |  ? [v13] :  ? [v14] :  ? [v15] : (smndt0(v12) = v14 & smndt0(v11) = v13 & smndt0(v10) = v15 & sdtasdt0(v15, v11) = v14 & sdtasdt0(v10, v13) = v14)) &  ! [v10] :  ! [v11] :  ! [v12] : ( ~ (sdtasdt0(v10, v11) = v12) |  ~ aScalar0(v11) |  ~ aScalar0(v10) |  ? [v13] :  ? [v14] : (smndt0(v11) = v14 & smndt0(v10) = v13 & sdtasdt0(v13, v14) = v12)) &  ! [v10] :  ! [v11] :  ! [v12] : ( ~ (sdtpldt0(v10, v11) = v12) |  ~ sdtlseqdt0(sz0z00, v11) |  ~ sdtlseqdt0(sz0z00, v10) |  ~ aScalar0(v11) |  ~ aScalar0(v10) | sdtlseqdt0(sz0z00, v12)) &  ! [v10] :  ! [v11] :  ! [v12] : ( ~ (sdtpldt0(v10, v11) = v12) |  ~ sdtlseqdt0(sz0z00, v11) |  ~ sdtlseqdt0(sz0z00, v10) |  ~ aScalar0(v11) |  ~ aScalar0(v10) |  ? [v13] : (sdtasdt0(v10, v11) = v13 & sdtlseqdt0(sz0z00, v13))) &  ! [v10] :  ! [v11] :  ! [v12] : ( ~ (sdtpldt0(v10, v11) = v12) |  ~ aScalar0(v11) |  ~ aScalar0(v10) | aScalar0(v12)) &  ! [v10] :  ! [v11] :  ! [v12] : ( ~ sdtlseqdt0(v11, v12) |  ~ sdtlseqdt0(v10, v11) |  ~ aScalar0(v12) |  ~ aScalar0(v11) |  ~ aScalar0(v10) | sdtlseqdt0(v10, v12)) &  ! [v10] :  ! [v11] : (v11 = v10 |  ~ (sdtpldt0(v10, sz0z00) = v11) |  ~ aScalar0(v10)) &  ! [v10] :  ! [v11] : (v11 = v10 |  ~ (sdtpldt0(sz0z00, v10) = v11) |  ~ aScalar0(v10)) &  ! [v10] :  ! [v11] : (v11 = v10 |  ~ sdtlseqdt0(v11, v10) |  ~ sdtlseqdt0(v10, v11) |  ~ aScalar0(v11) |  ~ aScalar0(v10)) &  ! [v10] :  ! [v11] : (v11 = sz0z00 |  ~ (sdtasdt0(v10, sz0z00) = v11) |  ~ aScalar0(v10)) &  ! [v10] :  ! [v11] : (v11 = sz0z00 |  ~ (sdtasdt0(sz0z00, v10) = v11) |  ~ aScalar0(v10)) &  ! [v10] :  ! [v11] : (v11 = sz00 |  ~ (aDimensionOf0(v10) = v11) |  ~ aVector0(v10) |  ? [v12] : (sziznziztdt0(v10) = v12 &  ! [v13] :  ! [v14] :  ! [v15] : ( ~ (sdtlbdtrb0(v12, v14) = v15) |  ~ (aDimensionOf0(v12) = v13) |  ~ aNaturalNumber0(v14) | sdtlbdtrb0(v10, v14) = v15) &  ! [v13] :  ! [v14] :  ! [v15] : ( ~ (sdtlbdtrb0(v10, v14) = v15) |  ~ (aDimensionOf0(v12) = v13) |  ~ aNaturalNumber0(v14) | sdtlbdtrb0(v12, v14) = v15) &  ! [v13] :  ! [v14] : (v13 = v12 |  ~ (aDimensionOf0(v13) = v14) |  ~ aVector0(v13) |  ? [v15] :  ? [v16] :  ? [v17] : (( ~ (v17 = v16) & sdtlbdtrb0(v13, v15) = v16 & sdtlbdtrb0(v10, v15) = v17 & aNaturalNumber0(v15)) | ( ~ (v15 = v11) & szszuzczcdt0(v14) = v15))) &  ! [v13] : ( ~ (aDimensionOf0(v12) = v13) | szszuzczcdt0(v13) = v11) &  ! [v13] : ( ~ (aDimensionOf0(v12) = v13) | aVector0(v12)))) &  ! [v10] :  ! [v11] : (v0 = sz0z00 |  ~ (smndt0(v10) = v11) |  ~ aScalar0(v10)) &  ! [v10] :  ! [v11] : (v0 = sz0z00 |  ~ (sdtasdt0(v10, sz0z00) = v11) |  ~ aScalar0(v10)) &  ! [v10] :  ! [v11] : (v0 = sz0z00 |  ~ (sdtasdt0(sz0z00, v10) = v11) |  ~ aScalar0(v10)) &  ! [v10] :  ! [v11] : (v0 = sz0z00 |  ~ (sdtpldt0(v10, sz0z00) = v11) |  ~ aScalar0(v10)) &  ! [v10] :  ! [v11] : (v0 = sz0z00 |  ~ (sdtpldt0(sz0z00, v10) = v11) |  ~ aScalar0(v10)) &  ! [v10] :  ! [v11] : ( ~ (sdtasasdt0(v10, v10) = v11) |  ~ aVector0(v10) | sdtlseqdt0(sz0z00, v11)) &  ! [v10] :  ! [v11] : ( ~ (sziznziztdt0(v10) = v11) |  ~ aVector0(v10) |  ? [v12] : (aDimensionOf0(v10) = v12 & (v12 = sz00 | ( ! [v13] :  ! [v14] :  ! [v15] : ( ~ (sdtlbdtrb0(v11, v14) = v15) |  ~ (aDimensionOf0(v11) = v13) |  ~ aNaturalNumber0(v14) | sdtlbdtrb0(v10, v14) = v15) &  ! [v13] :  ! [v14] :  ! [v15] : ( ~ (sdtlbdtrb0(v10, v14) = v15) |  ~ (aDimensionOf0(v11) = v13) |  ~ aNaturalNumber0(v14) | sdtlbdtrb0(v11, v14) = v15) &  ! [v13] :  ! [v14] : (v13 = v11 |  ~ (aDimensionOf0(v13) = v14) |  ~ aVector0(v13) |  ? [v15] :  ? [v16] :  ? [v17] : (( ~ (v17 = v16) & sdtlbdtrb0(v13, v15) = v16 & sdtlbdtrb0(v10, v15) = v17 & aNaturalNumber0(v15)) | ( ~ (v15 = v12) & szszuzczcdt0(v14) = v15))) &  ! [v13] : ( ~ (aDimensionOf0(v11) = v13) | szszuzczcdt0(v13) = v12) &  ! [v13] : ( ~ (aDimensionOf0(v11) = v13) | aVector0(v11)))))) &  ! [v10] :  ! [v11] : ( ~ (aDimensionOf0(v11) = sz00) |  ~ (aDimensionOf0(v10) = sz00) |  ~ aVector0(v11) |  ~ aVector0(v10) | sdtasasdt0(v10, v11) = sz0z00) &  ! [v10] :  ! [v11] : ( ~ (aDimensionOf0(v10) = v11) |  ~ aVector0(v10) | aNaturalNumber0(v11)) &  ! [v10] :  ! [v11] : ( ~ (smndt0(v10) = v11) |  ~ aScalar0(v10) | aScalar0(v11)) &  ! [v10] :  ! [v11] : ( ~ (smndt0(v10) = v11) |  ~ aScalar0(v10) | (smndt0(v11) = v10 & sdtasdt0(v10, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v10) = sz0z00 & sdtpldt0(v11, v10) = sz0z00 & sdtpldt0(v10, v11) = sz0z00 & sdtpldt0(v10, sz0z00) = v10 & sdtpldt0(sz0z00, v10) = v10)) &  ! [v10] :  ! [v11] : ( ~ (sdtasdt0(v10, v10) = v11) |  ~ aScalar0(v10) | sdtlseqdt0(sz0z00, v11)) &  ! [v10] :  ! [v11] : ( ~ (sdtasdt0(v10, sz0z00) = v11) |  ~ aScalar0(v10) |  ? [v12] : (smndt0(v12) = v10 & smndt0(v10) = v12 & sdtasdt0(sz0z00, v10) = sz0z00 & sdtpldt0(v12, v10) = sz0z00 & sdtpldt0(v10, v12) = sz0z00 & sdtpldt0(v10, sz0z00) = v10 & sdtpldt0(sz0z00, v10) = v10)) &  ! [v10] :  ! [v11] : ( ~ (sdtasdt0(sz0z00, v10) = v11) |  ~ aScalar0(v10) |  ? [v12] : (smndt0(v12) = v10 & smndt0(v10) = v12 & sdtasdt0(v10, sz0z00) = sz0z00 & sdtpldt0(v12, v10) = sz0z00 & sdtpldt0(v10, v12) = sz0z00 & sdtpldt0(v10, sz0z00) = v10 & sdtpldt0(sz0z00, v10) = v10)) &  ! [v10] :  ! [v11] : ( ~ (sdtpldt0(v10, sz0z00) = v11) |  ~ aScalar0(v10) |  ? [v12] : (smndt0(v12) = v10 & smndt0(v10) = v12 & sdtasdt0(v10, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v10) = sz0z00 & sdtpldt0(v12, v10) = sz0z00 & sdtpldt0(v10, v12) = sz0z00 & sdtpldt0(sz0z00, v10) = v10)) &  ! [v10] :  ! [v11] : ( ~ (sdtpldt0(sz0z00, v10) = v11) |  ~ aScalar0(v10) |  ? [v12] : (smndt0(v12) = v10 & smndt0(v10) = v12 & sdtasdt0(v10, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v10) = sz0z00 & sdtpldt0(v12, v10) = sz0z00 & sdtpldt0(v10, v12) = sz0z00 & sdtpldt0(v10, sz0z00) = v10)) &  ! [v10] :  ! [v11] : ( ~ (szszuzczcdt0(v10) = v11) |  ~ aNaturalNumber0(v10) | iLess0(v10, v11)) &  ! [v10] :  ! [v11] : ( ~ (szszuzczcdt0(v10) = v11) |  ~ aNaturalNumber0(v10) | aNaturalNumber0(v11)) &  ! [v10] :  ! [v11] : ( ~ aScalar0(v11) |  ~ aScalar0(v10) | sdtlseqdt0(v11, v10) | sdtlseqdt0(v10, v11)) &  ! [v10] : (v10 = sz00 |  ~ aNaturalNumber0(v10) |  ? [v11] : (szszuzczcdt0(v11) = v10 & aNaturalNumber0(v11))) &  ! [v10] : ( ~ (szszuzczcdt0(v10) = sz00) |  ~ aNaturalNumber0(v10)) &  ! [v10] : ( ~ aScalar0(v10) | sdtlseqdt0(v10, v10)))
% 8.60/2.60  | Instantiating (0) with all_0_0_0, all_0_1_1, all_0_2_2, all_0_3_3, all_0_4_4, all_0_5_5, all_0_6_6, all_0_7_7, all_0_8_8, all_0_9_9 yields:
% 8.60/2.60  | (1) sdtasasdt0(xt, xt) = all_0_1_1 & sdtasasdt0(xs, xt) = all_0_4_4 & sdtasasdt0(xs, xs) = all_0_2_2 & sziznziztdt0(xt) = all_0_7_7 & sziznziztdt0(xs) = all_0_8_8 & sdtlbdtrb0(xt, sz00) = all_0_5_5 & sdtlbdtrb0(xs, sz00) = all_0_6_6 & aDimensionOf0(xt) = sz00 & aDimensionOf0(xs) = sz00 & smndt0(sz0z00) = all_0_9_9 & sdtasdt0(all_0_2_2, all_0_1_1) = all_0_0_0 & sdtasdt0(all_0_4_4, all_0_4_4) = all_0_3_3 & aVector0(xt) & aVector0(xs) & aScalar0(sz0z00) & aNaturalNumber0(sz00) &  ~ sdtlseqdt0(all_0_3_3, all_0_0_0) &  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] :  ! [v5] :  ! [v6] :  ! [v7] :  ! [v8] :  ! [v9] :  ! [v10] : ( ~ (sdtasdt0(v1, v3) = v8) |  ~ (sdtasdt0(v1, v2) = v7) |  ~ (sdtasdt0(v0, v3) = v5) |  ~ (sdtasdt0(v0, v2) = v4) |  ~ (sdtpldt0(v7, v8) = v9) |  ~ (sdtpldt0(v6, v9) = v10) |  ~ (sdtpldt0(v4, v5) = v6) |  ~ aScalar0(v3) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v11] :  ? [v12] : (sdtasdt0(v11, v12) = v10 & sdtpldt0(v2, v3) = v12 & sdtpldt0(v0, v1) = v11)) &  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] :  ! [v5] :  ! [v6] :  ! [v7] :  ! [v8] :  ! [v9] : (v2 = sz00 |  ~ (sdtasasdt0(v3, v4) = v5) |  ~ (sziznziztdt0(v1) = v4) |  ~ (sziznziztdt0(v0) = v3) |  ~ (sdtlbdtrb0(v1, v2) = v7) |  ~ (sdtlbdtrb0(v0, v2) = v6) |  ~ (aDimensionOf0(v1) = v2) |  ~ (aDimensionOf0(v0) = v2) |  ~ (sdtasdt0(v6, v7) = v8) |  ~ (sdtpldt0(v5, v8) = v9) |  ~ aVector0(v1) |  ~ aVector0(v0) | sdtasasdt0(v0, v1) = v9) &  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] :  ! [v5] :  ! [v6] : ( ~ (sdtasdt0(v4, v5) = v6) |  ~ (sdtpldt0(v2, v3) = v5) |  ~ (sdtpldt0(v0, v1) = v4) |  ~ aScalar0(v3) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v7] :  ? [v8] :  ? [v9] :  ? [v10] :  ? [v11] :  ? [v12] : (sdtasdt0(v1, v3) = v11 & sdtasdt0(v1, v2) = v10 & sdtasdt0(v0, v3) = v8 & sdtasdt0(v0, v2) = v7 & sdtpldt0(v10, v11) = v12 & sdtpldt0(v9, v12) = v6 & sdtpldt0(v7, v8) = v9)) &  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] :  ! [v5] : ( ~ (sdtasdt0(v1, v3) = v5) |  ~ (sdtasdt0(v0, v2) = v4) |  ~ sdtlseqdt0(v2, v3) |  ~ sdtlseqdt0(v0, v1) |  ~ sdtlseqdt0(sz0z00, v2) |  ~ aScalar0(v3) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) | sdtlseqdt0(v4, v5)) &  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] :  ! [v5] : ( ~ (sdtasdt0(v1, v2) = v4) |  ~ (sdtasdt0(v0, v2) = v3) |  ~ (sdtpldt0(v3, v4) = v5) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v6] :  ? [v7] :  ? [v8] :  ? [v9] : (sdtasdt0(v9, v2) = v5 & sdtasdt0(v0, v6) = v7 & sdtasdt0(v0, v1) = v8 & sdtpldt0(v8, v3) = v7 & sdtpldt0(v1, v2) = v6 & sdtpldt0(v0, v1) = v9)) &  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] :  ! [v5] : ( ~ (sdtasdt0(v0, v2) = v4) |  ~ (sdtasdt0(v0, v1) = v3) |  ~ (sdtpldt0(v3, v4) = v5) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v6] :  ? [v7] :  ? [v8] :  ? [v9] : (sdtasdt0(v7, v2) = v8 & sdtasdt0(v1, v2) = v9 & sdtasdt0(v0, v6) = v5 & sdtpldt0(v4, v9) = v8 & sdtpldt0(v1, v2) = v6 & sdtpldt0(v0, v1) = v7)) &  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] :  ! [v5] : ( ~ (sdtpldt0(v1, v3) = v5) |  ~ (sdtpldt0(v0, v2) = v4) |  ~ sdtlseqdt0(v2, v3) |  ~ sdtlseqdt0(v0, v1) |  ~ aScalar0(v3) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) | sdtlseqdt0(v4, v5)) &  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] : ( ~ (sdtasasdt0(v1, v1) = v3) |  ~ (sdtasasdt0(v0, v0) = v2) |  ~ (sdtasdt0(v2, v3) = v4) |  ~ aVector0(v1) |  ~ aVector0(v0) |  ? [v5] :  ? [v6] :  ? [v7] :  ? [v8] : (sdtasasdt0(v0, v1) = v7 & aDimensionOf0(v1) = v6 & aDimensionOf0(v0) = v5 & sdtasdt0(v7, v7) = v8 & ( ~ (v6 = v5) |  ~ iLess0(v5, sz00) | sdtlseqdt0(v8, v4)))) &  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] : ( ~ (smndt0(v1) = v3) |  ~ (smndt0(v0) = v2) |  ~ (sdtasdt0(v2, v3) = v4) |  ~ aScalar0(v1) |  ~ aScalar0(v0) | sdtasdt0(v0, v1) = v4) &  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] : ( ~ (sdtasdt0(v3, v2) = v4) |  ~ (sdtasdt0(v0, v1) = v3) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v5] :  ? [v6] :  ? [v7] :  ? [v8] : (sdtasdt0(v1, v2) = v8 & sdtasdt0(v1, v0) = v3 & sdtasdt0(v0, v8) = v4 & sdtpldt0(v5, v2) = v6 & sdtpldt0(v1, v2) = v7 & sdtpldt0(v1, v0) = v5 & sdtpldt0(v0, v7) = v6 & sdtpldt0(v0, v1) = v5)) &  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] : ( ~ (sdtasdt0(v3, v2) = v4) |  ~ (sdtpldt0(v0, v1) = v3) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v5] :  ? [v6] :  ? [v7] :  ? [v8] :  ? [v9] : (sdtasdt0(v1, v2) = v9 & sdtasdt0(v0, v5) = v6 & sdtasdt0(v0, v2) = v8 & sdtasdt0(v0, v1) = v7 & sdtpldt0(v8, v9) = v4 & sdtpldt0(v7, v8) = v6 & sdtpldt0(v1, v2) = v5)) &  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] : ( ~ (sdtasdt0(v1, v2) = v3) |  ~ (sdtasdt0(v0, v3) = v4) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v5] :  ? [v6] :  ? [v7] :  ? [v8] : (sdtasdt0(v8, v2) = v4 & sdtasdt0(v1, v0) = v8 & sdtasdt0(v0, v1) = v8 & sdtpldt0(v5, v2) = v6 & sdtpldt0(v1, v2) = v7 & sdtpldt0(v1, v0) = v5 & sdtpldt0(v0, v7) = v6 & sdtpldt0(v0, v1) = v5)) &  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] : ( ~ (sdtasdt0(v0, v3) = v4) |  ~ (sdtpldt0(v1, v2) = v3) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v5] :  ? [v6] :  ? [v7] :  ? [v8] :  ? [v9] : (sdtasdt0(v7, v2) = v8 & sdtasdt0(v1, v2) = v9 & sdtasdt0(v0, v2) = v6 & sdtasdt0(v0, v1) = v5 & sdtpldt0(v6, v9) = v8 & sdtpldt0(v5, v6) = v4 & sdtpldt0(v0, v1) = v7)) &  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] : ( ~ (sdtpldt0(v3, v2) = v4) |  ~ (sdtpldt0(v0, v1) = v3) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v5] :  ? [v6] :  ? [v7] :  ? [v8] : (sdtasdt0(v6, v2) = v7 & sdtasdt0(v1, v2) = v8 & sdtasdt0(v1, v0) = v6 & sdtasdt0(v0, v8) = v7 & sdtasdt0(v0, v1) = v6 & sdtpldt0(v1, v2) = v5 & sdtpldt0(v1, v0) = v3 & sdtpldt0(v0, v5) = v4)) &  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] : ( ~ (sdtpldt0(v1, v2) = v3) |  ~ (sdtpldt0(v0, v3) = v4) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v5] :  ? [v6] :  ? [v7] :  ? [v8] : (sdtasdt0(v6, v2) = v7 & sdtasdt0(v1, v2) = v8 & sdtasdt0(v1, v0) = v6 & sdtasdt0(v0, v8) = v7 & sdtasdt0(v0, v1) = v6 & sdtpldt0(v5, v2) = v4 & sdtpldt0(v1, v0) = v5 & sdtpldt0(v0, v1) = v5)) &  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] : (v2 = sz00 |  ~ (sziznziztdt0(v0) = v3) |  ~ (aDimensionOf0(v1) = v2) |  ~ aVector0(v1) |  ~ aVector0(v0) |  ? [v4] :  ? [v5] :  ? [v6] :  ? [v7] : (sziznziztdt0(v1) = v6 & aDimensionOf0(v6) = v7 & aDimensionOf0(v3) = v5 & aDimensionOf0(v0) = v4 & ( ~ (v4 = v2) | v7 = v5))) &  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] : (v1 = v0 |  ~ (sdtasasdt0(v3, v2) = v1) |  ~ (sdtasasdt0(v3, v2) = v0)) &  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] : (v1 = v0 |  ~ (sdtlbdtrb0(v3, v2) = v1) |  ~ (sdtlbdtrb0(v3, v2) = v0)) &  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] : (v1 = v0 |  ~ (sdtasdt0(v3, v2) = v1) |  ~ (sdtasdt0(v3, v2) = v0)) &  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] : (v1 = v0 |  ~ (sdtpldt0(v3, v2) = v1) |  ~ (sdtpldt0(v3, v2) = v0)) &  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] : ( ~ (sdtasasdt0(v0, v1) = v2) |  ~ (sdtasdt0(v2, v2) = v3) |  ~ aVector0(v1) |  ~ aVector0(v0) |  ? [v4] :  ? [v5] :  ? [v6] :  ? [v7] :  ? [v8] : (sdtasasdt0(v1, v1) = v7 & sdtasasdt0(v0, v0) = v6 & aDimensionOf0(v1) = v5 & aDimensionOf0(v0) = v4 & sdtasdt0(v6, v7) = v8 & ( ~ (v5 = v4) |  ~ iLess0(v4, sz00) | sdtlseqdt0(v3, v8)))) &  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] : ( ~ (sziznziztdt0(v1) = v3) |  ~ (sziznziztdt0(v0) = v2) |  ~ aVector0(v1) |  ~ aVector0(v0) |  ? [v4] :  ? [v5] :  ? [v6] :  ? [v7] : (aDimensionOf0(v3) = v7 & aDimensionOf0(v2) = v6 & aDimensionOf0(v1) = v5 & aDimensionOf0(v0) = v4 & ( ~ (v5 = v4) | v7 = v6 | v4 = sz00))) &  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] : ( ~ (sziznziztdt0(v1) = v3) |  ~ (aDimensionOf0(v0) = v2) |  ~ aVector0(v1) |  ~ aVector0(v0) |  ? [v4] :  ? [v5] :  ? [v6] :  ? [v7] : (sziznziztdt0(v0) = v5 & aDimensionOf0(v5) = v6 & aDimensionOf0(v3) = v7 & aDimensionOf0(v1) = v4 & ( ~ (v4 = v2) | v7 = v6 | v2 = sz00))) &  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] : ( ~ (smndt0(v1) = v2) |  ~ (sdtasdt0(v0, v2) = v3) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v4] :  ? [v5] : (smndt0(v4) = v3 & smndt0(v0) = v5 & sdtasdt0(v5, v1) = v3 & sdtasdt0(v0, v1) = v4)) &  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] : ( ~ (smndt0(v0) = v2) |  ~ (sdtasdt0(v2, v1) = v3) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v4] :  ? [v5] : (smndt0(v5) = v3 & smndt0(v1) = v4 & sdtasdt0(v0, v4) = v3 & sdtasdt0(v0, v1) = v5)) &  ! [v0] :  ! [v1] :  ! [v2] : (v2 = sz0z00 |  ~ (sdtasasdt0(v0, v1) = v2) |  ~ aVector0(v1) |  ~ aVector0(v0) |  ? [v3] :  ? [v4] : (aDimensionOf0(v1) = v4 & aDimensionOf0(v0) = v3 & ( ~ (v4 = sz00) |  ~ (v3 = sz00)))) &  ! [v0] :  ! [v1] :  ! [v2] : (v2 = sz0z00 |  ~ (smndt0(v0) = v1) |  ~ (sdtpldt0(v1, v0) = v2) |  ~ aScalar0(v0)) &  ! [v0] :  ! [v1] :  ! [v2] : (v2 = sz0z00 |  ~ (smndt0(v0) = v1) |  ~ (sdtpldt0(v0, v1) = v2) |  ~ aScalar0(v0)) &  ! [v0] :  ! [v1] :  ! [v2] : (v2 = sz00 |  ~ (aDimensionOf0(v1) = v2) |  ~ (aDimensionOf0(v0) = v2) |  ~ aVector0(v1) |  ~ aVector0(v0) |  ? [v3] :  ? [v4] :  ? [v5] :  ? [v6] :  ? [v7] :  ? [v8] :  ? [v9] : (sdtasasdt0(v4, v5) = v6 & sdtasasdt0(v0, v1) = v3 & sziznziztdt0(v1) = v5 & sziznziztdt0(v0) = v4 & sdtlbdtrb0(v1, v2) = v8 & sdtlbdtrb0(v0, v2) = v7 & sdtasdt0(v7, v8) = v9 & sdtpldt0(v6, v9) = v3)) &  ! [v0] :  ! [v1] :  ! [v2] : (v2 = sz00 |  ~ (aDimensionOf0(v1) = v2) |  ~ (aDimensionOf0(v0) = v2) |  ~ aVector0(v1) |  ~ aVector0(v0) |  ? [v3] :  ? [v4] :  ? [v5] : (sziznziztdt0(v1) = v5 & sziznziztdt0(v0) = v3 & aDimensionOf0(v5) = v4 & aDimensionOf0(v3) = v4)) &  ! [v0] :  ! [v1] :  ! [v2] : (v1 = v0 |  ~ (sziznziztdt0(v2) = v1) |  ~ (sziznziztdt0(v2) = v0)) &  ! [v0] :  ! [v1] :  ! [v2] : (v1 = v0 |  ~ (aDimensionOf0(v2) = v1) |  ~ (aDimensionOf0(v2) = v0)) &  ! [v0] :  ! [v1] :  ! [v2] : (v1 = v0 |  ~ (smndt0(v2) = v1) |  ~ (smndt0(v2) = v0)) &  ! [v0] :  ! [v1] :  ! [v2] : (v1 = v0 |  ~ (sdtasdt0(v1, v1) = v2) |  ~ (sdtasdt0(v0, v0) = v2) |  ~ sdtlseqdt0(sz0z00, v1) |  ~ sdtlseqdt0(sz0z00, v0) |  ~ aScalar0(v1) |  ~ aScalar0(v0)) &  ! [v0] :  ! [v1] :  ! [v2] : (v1 = v0 |  ~ (szszuzczcdt0(v2) = v1) |  ~ (szszuzczcdt0(v2) = v0)) &  ! [v0] :  ! [v1] :  ! [v2] : (v1 = v0 |  ~ (szszuzczcdt0(v1) = v2) |  ~ (szszuzczcdt0(v0) = v2) |  ~ aNaturalNumber0(v1) |  ~ aNaturalNumber0(v0)) &  ! [v0] :  ! [v1] :  ! [v2] : (all_0_9_9 = sz0z00 |  ~ (smndt0(v0) = v1) |  ~ (sdtpldt0(v1, v0) = v2) |  ~ aScalar0(v0)) &  ! [v0] :  ! [v1] :  ! [v2] : (all_0_9_9 = sz0z00 |  ~ (smndt0(v0) = v1) |  ~ (sdtpldt0(v0, v1) = v2) |  ~ aScalar0(v0)) &  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (sdtasasdt0(v0, v1) = v2) |  ~ aVector0(v1) |  ~ aVector0(v0) | aScalar0(v2) |  ? [v3] :  ? [v4] : ( ~ (v4 = v3) & aDimensionOf0(v1) = v4 & aDimensionOf0(v0) = v3)) &  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (sdtasasdt0(v0, v1) = v2) |  ~ aVector0(v1) |  ~ aVector0(v0) |  ? [v3] :  ? [v4] :  ? [v5] :  ? [v6] :  ? [v7] :  ? [v8] :  ? [v9] :  ? [v10] :  ? [v11] : (sdtasasdt0(v5, v6) = v7 & sziznziztdt0(v1) = v6 & sziznziztdt0(v0) = v5 & sdtlbdtrb0(v1, v4) = v9 & sdtlbdtrb0(v0, v3) = v8 & aDimensionOf0(v1) = v4 & aDimensionOf0(v0) = v3 & sdtasdt0(v8, v9) = v10 & sdtpldt0(v7, v10) = v11 & ( ~ (v4 = v3) | v11 = v2 | v3 = sz00))) &  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (sdtlbdtrb0(v0, v1) = v2) |  ~ aVector0(v0) |  ~ aNaturalNumber0(v1) | aScalar0(v2)) &  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (aDimensionOf0(v1) = v2) |  ~ (aDimensionOf0(v0) = v2) |  ~ aVector0(v1) |  ~ aVector0(v0) |  ~ iLess0(v2, sz00) |  ? [v3] :  ? [v4] :  ? [v5] :  ? [v6] :  ? [v7] : (sdtasasdt0(v1, v1) = v6 & sdtasasdt0(v0, v1) = v3 & sdtasasdt0(v0, v0) = v5 & sdtasdt0(v5, v6) = v7 & sdtasdt0(v3, v3) = v4 & sdtlseqdt0(v4, v7))) &  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (aDimensionOf0(v1) = v2) |  ~ (aDimensionOf0(v0) = v2) |  ~ aVector0(v1) |  ~ aVector0(v0) |  ? [v3] : (sdtasasdt0(v0, v1) = v3 & aScalar0(v3))) &  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (smndt0(v0) = v1) |  ~ (sdtpldt0(v1, v0) = v2) |  ~ aScalar0(v0) | (smndt0(v1) = v0 & sdtasdt0(v0, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v0) = sz0z00 & sdtpldt0(v0, v1) = sz0z00 & sdtpldt0(v0, sz0z00) = v0 & sdtpldt0(sz0z00, v0) = v0)) &  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (smndt0(v0) = v1) |  ~ (sdtpldt0(v0, v1) = v2) |  ~ aScalar0(v0) | (smndt0(v1) = v0 & sdtasdt0(v0, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v0) = sz0z00 & sdtpldt0(v1, v0) = sz0z00 & sdtpldt0(v0, sz0z00) = v0 & sdtpldt0(sz0z00, v0) = v0)) &  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (sdtasdt0(v0, v1) = v2) |  ~ sdtlseqdt0(sz0z00, v1) |  ~ sdtlseqdt0(sz0z00, v0) |  ~ aScalar0(v1) |  ~ aScalar0(v0) | sdtlseqdt0(sz0z00, v2)) &  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (sdtasdt0(v0, v1) = v2) |  ~ sdtlseqdt0(sz0z00, v1) |  ~ sdtlseqdt0(sz0z00, v0) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v3] : (sdtpldt0(v0, v1) = v3 & sdtlseqdt0(sz0z00, v3))) &  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (sdtasdt0(v0, v1) = v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) | aScalar0(v2)) &  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (sdtasdt0(v0, v1) = v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v3] :  ? [v4] :  ? [v5] : (smndt0(v2) = v4 & smndt0(v1) = v3 & smndt0(v0) = v5 & sdtasdt0(v5, v1) = v4 & sdtasdt0(v0, v3) = v4)) &  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (sdtasdt0(v0, v1) = v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v3] :  ? [v4] : (smndt0(v1) = v4 & smndt0(v0) = v3 & sdtasdt0(v3, v4) = v2)) &  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (sdtpldt0(v0, v1) = v2) |  ~ sdtlseqdt0(sz0z00, v1) |  ~ sdtlseqdt0(sz0z00, v0) |  ~ aScalar0(v1) |  ~ aScalar0(v0) | sdtlseqdt0(sz0z00, v2)) &  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (sdtpldt0(v0, v1) = v2) |  ~ sdtlseqdt0(sz0z00, v1) |  ~ sdtlseqdt0(sz0z00, v0) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v3] : (sdtasdt0(v0, v1) = v3 & sdtlseqdt0(sz0z00, v3))) &  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (sdtpldt0(v0, v1) = v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) | aScalar0(v2)) &  ! [v0] :  ! [v1] :  ! [v2] : ( ~ sdtlseqdt0(v1, v2) |  ~ sdtlseqdt0(v0, v1) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) | sdtlseqdt0(v0, v2)) &  ! [v0] :  ! [v1] : (v1 = v0 |  ~ (sdtpldt0(v0, sz0z00) = v1) |  ~ aScalar0(v0)) &  ! [v0] :  ! [v1] : (v1 = v0 |  ~ (sdtpldt0(sz0z00, v0) = v1) |  ~ aScalar0(v0)) &  ! [v0] :  ! [v1] : (v1 = v0 |  ~ sdtlseqdt0(v1, v0) |  ~ sdtlseqdt0(v0, v1) |  ~ aScalar0(v1) |  ~ aScalar0(v0)) &  ! [v0] :  ! [v1] : (v1 = sz0z00 |  ~ (sdtasdt0(v0, sz0z00) = v1) |  ~ aScalar0(v0)) &  ! [v0] :  ! [v1] : (v1 = sz0z00 |  ~ (sdtasdt0(sz0z00, v0) = v1) |  ~ aScalar0(v0)) &  ! [v0] :  ! [v1] : (v1 = sz00 |  ~ (aDimensionOf0(v0) = v1) |  ~ aVector0(v0) |  ? [v2] : (sziznziztdt0(v0) = v2 &  ! [v3] :  ! [v4] :  ! [v5] : ( ~ (sdtlbdtrb0(v2, v4) = v5) |  ~ (aDimensionOf0(v2) = v3) |  ~ aNaturalNumber0(v4) | sdtlbdtrb0(v0, v4) = v5) &  ! [v3] :  ! [v4] :  ! [v5] : ( ~ (sdtlbdtrb0(v0, v4) = v5) |  ~ (aDimensionOf0(v2) = v3) |  ~ aNaturalNumber0(v4) | sdtlbdtrb0(v2, v4) = v5) &  ! [v3] :  ! [v4] : (v3 = v2 |  ~ (aDimensionOf0(v3) = v4) |  ~ aVector0(v3) |  ? [v5] :  ? [v6] :  ? [v7] : (( ~ (v7 = v6) & sdtlbdtrb0(v3, v5) = v6 & sdtlbdtrb0(v0, v5) = v7 & aNaturalNumber0(v5)) | ( ~ (v5 = v1) & szszuzczcdt0(v4) = v5))) &  ! [v3] : ( ~ (aDimensionOf0(v2) = v3) | szszuzczcdt0(v3) = v1) &  ! [v3] : ( ~ (aDimensionOf0(v2) = v3) | aVector0(v2)))) &  ! [v0] :  ! [v1] : (all_0_9_9 = sz0z00 |  ~ (smndt0(v0) = v1) |  ~ aScalar0(v0)) &  ! [v0] :  ! [v1] : (all_0_9_9 = sz0z00 |  ~ (sdtasdt0(v0, sz0z00) = v1) |  ~ aScalar0(v0)) &  ! [v0] :  ! [v1] : (all_0_9_9 = sz0z00 |  ~ (sdtasdt0(sz0z00, v0) = v1) |  ~ aScalar0(v0)) &  ! [v0] :  ! [v1] : (all_0_9_9 = sz0z00 |  ~ (sdtpldt0(v0, sz0z00) = v1) |  ~ aScalar0(v0)) &  ! [v0] :  ! [v1] : (all_0_9_9 = sz0z00 |  ~ (sdtpldt0(sz0z00, v0) = v1) |  ~ aScalar0(v0)) &  ! [v0] :  ! [v1] : ( ~ (sdtasasdt0(v0, v0) = v1) |  ~ aVector0(v0) | sdtlseqdt0(sz0z00, v1)) &  ! [v0] :  ! [v1] : ( ~ (sziznziztdt0(v0) = v1) |  ~ aVector0(v0) |  ? [v2] : (aDimensionOf0(v0) = v2 & (v2 = sz00 | ( ! [v3] :  ! [v4] :  ! [v5] : ( ~ (sdtlbdtrb0(v1, v4) = v5) |  ~ (aDimensionOf0(v1) = v3) |  ~ aNaturalNumber0(v4) | sdtlbdtrb0(v0, v4) = v5) &  ! [v3] :  ! [v4] :  ! [v5] : ( ~ (sdtlbdtrb0(v0, v4) = v5) |  ~ (aDimensionOf0(v1) = v3) |  ~ aNaturalNumber0(v4) | sdtlbdtrb0(v1, v4) = v5) &  ! [v3] :  ! [v4] : (v3 = v1 |  ~ (aDimensionOf0(v3) = v4) |  ~ aVector0(v3) |  ? [v5] :  ? [v6] :  ? [v7] : (( ~ (v7 = v6) & sdtlbdtrb0(v3, v5) = v6 & sdtlbdtrb0(v0, v5) = v7 & aNaturalNumber0(v5)) | ( ~ (v5 = v2) & szszuzczcdt0(v4) = v5))) &  ! [v3] : ( ~ (aDimensionOf0(v1) = v3) | szszuzczcdt0(v3) = v2) &  ! [v3] : ( ~ (aDimensionOf0(v1) = v3) | aVector0(v1)))))) &  ! [v0] :  ! [v1] : ( ~ (aDimensionOf0(v1) = sz00) |  ~ (aDimensionOf0(v0) = sz00) |  ~ aVector0(v1) |  ~ aVector0(v0) | sdtasasdt0(v0, v1) = sz0z00) &  ! [v0] :  ! [v1] : ( ~ (aDimensionOf0(v0) = v1) |  ~ aVector0(v0) | aNaturalNumber0(v1)) &  ! [v0] :  ! [v1] : ( ~ (smndt0(v0) = v1) |  ~ aScalar0(v0) | aScalar0(v1)) &  ! [v0] :  ! [v1] : ( ~ (smndt0(v0) = v1) |  ~ aScalar0(v0) | (smndt0(v1) = v0 & sdtasdt0(v0, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v0) = sz0z00 & sdtpldt0(v1, v0) = sz0z00 & sdtpldt0(v0, v1) = sz0z00 & sdtpldt0(v0, sz0z00) = v0 & sdtpldt0(sz0z00, v0) = v0)) &  ! [v0] :  ! [v1] : ( ~ (sdtasdt0(v0, v0) = v1) |  ~ aScalar0(v0) | sdtlseqdt0(sz0z00, v1)) &  ! [v0] :  ! [v1] : ( ~ (sdtasdt0(v0, sz0z00) = v1) |  ~ aScalar0(v0) |  ? [v2] : (smndt0(v2) = v0 & smndt0(v0) = v2 & sdtasdt0(sz0z00, v0) = sz0z00 & sdtpldt0(v2, v0) = sz0z00 & sdtpldt0(v0, v2) = sz0z00 & sdtpldt0(v0, sz0z00) = v0 & sdtpldt0(sz0z00, v0) = v0)) &  ! [v0] :  ! [v1] : ( ~ (sdtasdt0(sz0z00, v0) = v1) |  ~ aScalar0(v0) |  ? [v2] : (smndt0(v2) = v0 & smndt0(v0) = v2 & sdtasdt0(v0, sz0z00) = sz0z00 & sdtpldt0(v2, v0) = sz0z00 & sdtpldt0(v0, v2) = sz0z00 & sdtpldt0(v0, sz0z00) = v0 & sdtpldt0(sz0z00, v0) = v0)) &  ! [v0] :  ! [v1] : ( ~ (sdtpldt0(v0, sz0z00) = v1) |  ~ aScalar0(v0) |  ? [v2] : (smndt0(v2) = v0 & smndt0(v0) = v2 & sdtasdt0(v0, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v0) = sz0z00 & sdtpldt0(v2, v0) = sz0z00 & sdtpldt0(v0, v2) = sz0z00 & sdtpldt0(sz0z00, v0) = v0)) &  ! [v0] :  ! [v1] : ( ~ (sdtpldt0(sz0z00, v0) = v1) |  ~ aScalar0(v0) |  ? [v2] : (smndt0(v2) = v0 & smndt0(v0) = v2 & sdtasdt0(v0, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v0) = sz0z00 & sdtpldt0(v2, v0) = sz0z00 & sdtpldt0(v0, v2) = sz0z00 & sdtpldt0(v0, sz0z00) = v0)) &  ! [v0] :  ! [v1] : ( ~ (szszuzczcdt0(v0) = v1) |  ~ aNaturalNumber0(v0) | iLess0(v0, v1)) &  ! [v0] :  ! [v1] : ( ~ (szszuzczcdt0(v0) = v1) |  ~ aNaturalNumber0(v0) | aNaturalNumber0(v1)) &  ! [v0] :  ! [v1] : ( ~ aScalar0(v1) |  ~ aScalar0(v0) | sdtlseqdt0(v1, v0) | sdtlseqdt0(v0, v1)) &  ! [v0] : (v0 = sz00 |  ~ aNaturalNumber0(v0) |  ? [v1] : (szszuzczcdt0(v1) = v0 & aNaturalNumber0(v1))) &  ! [v0] : ( ~ (szszuzczcdt0(v0) = sz00) |  ~ aNaturalNumber0(v0)) &  ! [v0] : ( ~ aScalar0(v0) | sdtlseqdt0(v0, v0))
% 8.65/2.63  |
% 8.65/2.63  | Applying alpha-rule on (1) yields:
% 8.65/2.63  | (2)  ! [v0] :  ! [v1] :  ! [v2] : (v1 = v0 |  ~ (aDimensionOf0(v2) = v1) |  ~ (aDimensionOf0(v2) = v0))
% 8.65/2.64  | (3)  ! [v0] :  ! [v1] : ( ~ (sziznziztdt0(v0) = v1) |  ~ aVector0(v0) |  ? [v2] : (aDimensionOf0(v0) = v2 & (v2 = sz00 | ( ! [v3] :  ! [v4] :  ! [v5] : ( ~ (sdtlbdtrb0(v1, v4) = v5) |  ~ (aDimensionOf0(v1) = v3) |  ~ aNaturalNumber0(v4) | sdtlbdtrb0(v0, v4) = v5) &  ! [v3] :  ! [v4] :  ! [v5] : ( ~ (sdtlbdtrb0(v0, v4) = v5) |  ~ (aDimensionOf0(v1) = v3) |  ~ aNaturalNumber0(v4) | sdtlbdtrb0(v1, v4) = v5) &  ! [v3] :  ! [v4] : (v3 = v1 |  ~ (aDimensionOf0(v3) = v4) |  ~ aVector0(v3) |  ? [v5] :  ? [v6] :  ? [v7] : (( ~ (v7 = v6) & sdtlbdtrb0(v3, v5) = v6 & sdtlbdtrb0(v0, v5) = v7 & aNaturalNumber0(v5)) | ( ~ (v5 = v2) & szszuzczcdt0(v4) = v5))) &  ! [v3] : ( ~ (aDimensionOf0(v1) = v3) | szszuzczcdt0(v3) = v2) &  ! [v3] : ( ~ (aDimensionOf0(v1) = v3) | aVector0(v1))))))
% 8.65/2.64  | (4)  ! [v0] :  ! [v1] : (all_0_9_9 = sz0z00 |  ~ (sdtasdt0(v0, sz0z00) = v1) |  ~ aScalar0(v0))
% 8.65/2.64  | (5)  ! [v0] :  ! [v1] : (v1 = v0 |  ~ (sdtpldt0(v0, sz0z00) = v1) |  ~ aScalar0(v0))
% 8.65/2.64  | (6)  ! [v0] :  ! [v1] : (v1 = sz0z00 |  ~ (sdtasdt0(sz0z00, v0) = v1) |  ~ aScalar0(v0))
% 8.65/2.64  | (7)  ! [v0] :  ! [v1] : ( ~ (sdtasdt0(v0, sz0z00) = v1) |  ~ aScalar0(v0) |  ? [v2] : (smndt0(v2) = v0 & smndt0(v0) = v2 & sdtasdt0(sz0z00, v0) = sz0z00 & sdtpldt0(v2, v0) = sz0z00 & sdtpldt0(v0, v2) = sz0z00 & sdtpldt0(v0, sz0z00) = v0 & sdtpldt0(sz0z00, v0) = v0))
% 8.65/2.64  | (8) sdtasdt0(all_0_2_2, all_0_1_1) = all_0_0_0
% 8.65/2.64  | (9)  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] : ( ~ (smndt0(v1) = v3) |  ~ (smndt0(v0) = v2) |  ~ (sdtasdt0(v2, v3) = v4) |  ~ aScalar0(v1) |  ~ aScalar0(v0) | sdtasdt0(v0, v1) = v4)
% 8.65/2.64  | (10)  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] : ( ~ (smndt0(v0) = v2) |  ~ (sdtasdt0(v2, v1) = v3) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v4] :  ? [v5] : (smndt0(v5) = v3 & smndt0(v1) = v4 & sdtasdt0(v0, v4) = v3 & sdtasdt0(v0, v1) = v5))
% 8.65/2.64  | (11) smndt0(sz0z00) = all_0_9_9
% 8.65/2.64  | (12)  ! [v0] :  ! [v1] : ( ~ (smndt0(v0) = v1) |  ~ aScalar0(v0) | (smndt0(v1) = v0 & sdtasdt0(v0, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v0) = sz0z00 & sdtpldt0(v1, v0) = sz0z00 & sdtpldt0(v0, v1) = sz0z00 & sdtpldt0(v0, sz0z00) = v0 & sdtpldt0(sz0z00, v0) = v0))
% 8.65/2.64  | (13)  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] : ( ~ (sdtpldt0(v1, v2) = v3) |  ~ (sdtpldt0(v0, v3) = v4) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v5] :  ? [v6] :  ? [v7] :  ? [v8] : (sdtasdt0(v6, v2) = v7 & sdtasdt0(v1, v2) = v8 & sdtasdt0(v1, v0) = v6 & sdtasdt0(v0, v8) = v7 & sdtasdt0(v0, v1) = v6 & sdtpldt0(v5, v2) = v4 & sdtpldt0(v1, v0) = v5 & sdtpldt0(v0, v1) = v5))
% 8.65/2.64  | (14)  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] :  ! [v5] : ( ~ (sdtasdt0(v1, v2) = v4) |  ~ (sdtasdt0(v0, v2) = v3) |  ~ (sdtpldt0(v3, v4) = v5) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v6] :  ? [v7] :  ? [v8] :  ? [v9] : (sdtasdt0(v9, v2) = v5 & sdtasdt0(v0, v6) = v7 & sdtasdt0(v0, v1) = v8 & sdtpldt0(v8, v3) = v7 & sdtpldt0(v1, v2) = v6 & sdtpldt0(v0, v1) = v9))
% 8.65/2.64  | (15)  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (sdtasdt0(v0, v1) = v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v3] :  ? [v4] : (smndt0(v1) = v4 & smndt0(v0) = v3 & sdtasdt0(v3, v4) = v2))
% 8.65/2.64  | (16)  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] : ( ~ (sziznziztdt0(v1) = v3) |  ~ (sziznziztdt0(v0) = v2) |  ~ aVector0(v1) |  ~ aVector0(v0) |  ? [v4] :  ? [v5] :  ? [v6] :  ? [v7] : (aDimensionOf0(v3) = v7 & aDimensionOf0(v2) = v6 & aDimensionOf0(v1) = v5 & aDimensionOf0(v0) = v4 & ( ~ (v5 = v4) | v7 = v6 | v4 = sz00)))
% 8.65/2.64  | (17)  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] : ( ~ (sdtasasdt0(v0, v1) = v2) |  ~ (sdtasdt0(v2, v2) = v3) |  ~ aVector0(v1) |  ~ aVector0(v0) |  ? [v4] :  ? [v5] :  ? [v6] :  ? [v7] :  ? [v8] : (sdtasasdt0(v1, v1) = v7 & sdtasasdt0(v0, v0) = v6 & aDimensionOf0(v1) = v5 & aDimensionOf0(v0) = v4 & sdtasdt0(v6, v7) = v8 & ( ~ (v5 = v4) |  ~ iLess0(v4, sz00) | sdtlseqdt0(v3, v8))))
% 8.65/2.64  | (18)  ! [v0] :  ! [v1] : (v1 = v0 |  ~ sdtlseqdt0(v1, v0) |  ~ sdtlseqdt0(v0, v1) |  ~ aScalar0(v1) |  ~ aScalar0(v0))
% 8.65/2.64  | (19)  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] : ( ~ (sdtasdt0(v3, v2) = v4) |  ~ (sdtpldt0(v0, v1) = v3) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v5] :  ? [v6] :  ? [v7] :  ? [v8] :  ? [v9] : (sdtasdt0(v1, v2) = v9 & sdtasdt0(v0, v5) = v6 & sdtasdt0(v0, v2) = v8 & sdtasdt0(v0, v1) = v7 & sdtpldt0(v8, v9) = v4 & sdtpldt0(v7, v8) = v6 & sdtpldt0(v1, v2) = v5))
% 8.65/2.64  | (20) sziznziztdt0(xs) = all_0_8_8
% 8.65/2.64  | (21) sziznziztdt0(xt) = all_0_7_7
% 8.65/2.64  | (22)  ! [v0] :  ! [v1] :  ! [v2] : (v2 = sz0z00 |  ~ (smndt0(v0) = v1) |  ~ (sdtpldt0(v0, v1) = v2) |  ~ aScalar0(v0))
% 8.65/2.64  | (23)  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] :  ! [v5] : ( ~ (sdtasdt0(v1, v3) = v5) |  ~ (sdtasdt0(v0, v2) = v4) |  ~ sdtlseqdt0(v2, v3) |  ~ sdtlseqdt0(v0, v1) |  ~ sdtlseqdt0(sz0z00, v2) |  ~ aScalar0(v3) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) | sdtlseqdt0(v4, v5))
% 8.65/2.64  | (24)  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] : (v1 = v0 |  ~ (sdtlbdtrb0(v3, v2) = v1) |  ~ (sdtlbdtrb0(v3, v2) = v0))
% 8.65/2.65  | (25) aScalar0(sz0z00)
% 8.65/2.65  | (26)  ! [v0] :  ! [v1] : ( ~ (sdtpldt0(sz0z00, v0) = v1) |  ~ aScalar0(v0) |  ? [v2] : (smndt0(v2) = v0 & smndt0(v0) = v2 & sdtasdt0(v0, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v0) = sz0z00 & sdtpldt0(v2, v0) = sz0z00 & sdtpldt0(v0, v2) = sz0z00 & sdtpldt0(v0, sz0z00) = v0))
% 8.65/2.65  | (27)  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] : ( ~ (sdtasdt0(v3, v2) = v4) |  ~ (sdtasdt0(v0, v1) = v3) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v5] :  ? [v6] :  ? [v7] :  ? [v8] : (sdtasdt0(v1, v2) = v8 & sdtasdt0(v1, v0) = v3 & sdtasdt0(v0, v8) = v4 & sdtpldt0(v5, v2) = v6 & sdtpldt0(v1, v2) = v7 & sdtpldt0(v1, v0) = v5 & sdtpldt0(v0, v7) = v6 & sdtpldt0(v0, v1) = v5))
% 8.65/2.65  | (28)  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] : (v1 = v0 |  ~ (sdtasasdt0(v3, v2) = v1) |  ~ (sdtasasdt0(v3, v2) = v0))
% 8.65/2.65  | (29)  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] :  ! [v5] : ( ~ (sdtpldt0(v1, v3) = v5) |  ~ (sdtpldt0(v0, v2) = v4) |  ~ sdtlseqdt0(v2, v3) |  ~ sdtlseqdt0(v0, v1) |  ~ aScalar0(v3) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) | sdtlseqdt0(v4, v5))
% 8.65/2.65  | (30)  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] : (v2 = sz00 |  ~ (sziznziztdt0(v0) = v3) |  ~ (aDimensionOf0(v1) = v2) |  ~ aVector0(v1) |  ~ aVector0(v0) |  ? [v4] :  ? [v5] :  ? [v6] :  ? [v7] : (sziznziztdt0(v1) = v6 & aDimensionOf0(v6) = v7 & aDimensionOf0(v3) = v5 & aDimensionOf0(v0) = v4 & ( ~ (v4 = v2) | v7 = v5)))
% 8.65/2.65  | (31)  ! [v0] :  ! [v1] : ( ~ (sdtasasdt0(v0, v0) = v1) |  ~ aVector0(v0) | sdtlseqdt0(sz0z00, v1))
% 8.65/2.65  | (32)  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] : ( ~ (sziznziztdt0(v1) = v3) |  ~ (aDimensionOf0(v0) = v2) |  ~ aVector0(v1) |  ~ aVector0(v0) |  ? [v4] :  ? [v5] :  ? [v6] :  ? [v7] : (sziznziztdt0(v0) = v5 & aDimensionOf0(v5) = v6 & aDimensionOf0(v3) = v7 & aDimensionOf0(v1) = v4 & ( ~ (v4 = v2) | v7 = v6 | v2 = sz00)))
% 8.65/2.65  | (33)  ! [v0] :  ! [v1] :  ! [v2] : (all_0_9_9 = sz0z00 |  ~ (smndt0(v0) = v1) |  ~ (sdtpldt0(v1, v0) = v2) |  ~ aScalar0(v0))
% 8.65/2.65  | (34)  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (aDimensionOf0(v1) = v2) |  ~ (aDimensionOf0(v0) = v2) |  ~ aVector0(v1) |  ~ aVector0(v0) |  ~ iLess0(v2, sz00) |  ? [v3] :  ? [v4] :  ? [v5] :  ? [v6] :  ? [v7] : (sdtasasdt0(v1, v1) = v6 & sdtasasdt0(v0, v1) = v3 & sdtasasdt0(v0, v0) = v5 & sdtasdt0(v5, v6) = v7 & sdtasdt0(v3, v3) = v4 & sdtlseqdt0(v4, v7)))
% 8.65/2.65  | (35)  ! [v0] :  ! [v1] :  ! [v2] : (v1 = v0 |  ~ (sdtasdt0(v1, v1) = v2) |  ~ (sdtasdt0(v0, v0) = v2) |  ~ sdtlseqdt0(sz0z00, v1) |  ~ sdtlseqdt0(sz0z00, v0) |  ~ aScalar0(v1) |  ~ aScalar0(v0))
% 8.65/2.65  | (36)  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] : ( ~ (sdtasasdt0(v1, v1) = v3) |  ~ (sdtasasdt0(v0, v0) = v2) |  ~ (sdtasdt0(v2, v3) = v4) |  ~ aVector0(v1) |  ~ aVector0(v0) |  ? [v5] :  ? [v6] :  ? [v7] :  ? [v8] : (sdtasasdt0(v0, v1) = v7 & aDimensionOf0(v1) = v6 & aDimensionOf0(v0) = v5 & sdtasdt0(v7, v7) = v8 & ( ~ (v6 = v5) |  ~ iLess0(v5, sz00) | sdtlseqdt0(v8, v4))))
% 8.65/2.65  | (37)  ! [v0] :  ! [v1] : (all_0_9_9 = sz0z00 |  ~ (sdtpldt0(v0, sz0z00) = v1) |  ~ aScalar0(v0))
% 8.65/2.65  | (38)  ! [v0] :  ! [v1] : ( ~ (sdtasdt0(v0, v0) = v1) |  ~ aScalar0(v0) | sdtlseqdt0(sz0z00, v1))
% 8.65/2.65  | (39)  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] : ( ~ (sdtasdt0(v1, v2) = v3) |  ~ (sdtasdt0(v0, v3) = v4) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v5] :  ? [v6] :  ? [v7] :  ? [v8] : (sdtasdt0(v8, v2) = v4 & sdtasdt0(v1, v0) = v8 & sdtasdt0(v0, v1) = v8 & sdtpldt0(v5, v2) = v6 & sdtpldt0(v1, v2) = v7 & sdtpldt0(v1, v0) = v5 & sdtpldt0(v0, v7) = v6 & sdtpldt0(v0, v1) = v5))
% 8.65/2.65  | (40)  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (sdtasasdt0(v0, v1) = v2) |  ~ aVector0(v1) |  ~ aVector0(v0) |  ? [v3] :  ? [v4] :  ? [v5] :  ? [v6] :  ? [v7] :  ? [v8] :  ? [v9] :  ? [v10] :  ? [v11] : (sdtasasdt0(v5, v6) = v7 & sziznziztdt0(v1) = v6 & sziznziztdt0(v0) = v5 & sdtlbdtrb0(v1, v4) = v9 & sdtlbdtrb0(v0, v3) = v8 & aDimensionOf0(v1) = v4 & aDimensionOf0(v0) = v3 & sdtasdt0(v8, v9) = v10 & sdtpldt0(v7, v10) = v11 & ( ~ (v4 = v3) | v11 = v2 | v3 = sz00)))
% 8.65/2.65  | (41)  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] :  ! [v5] : ( ~ (sdtasdt0(v0, v2) = v4) |  ~ (sdtasdt0(v0, v1) = v3) |  ~ (sdtpldt0(v3, v4) = v5) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v6] :  ? [v7] :  ? [v8] :  ? [v9] : (sdtasdt0(v7, v2) = v8 & sdtasdt0(v1, v2) = v9 & sdtasdt0(v0, v6) = v5 & sdtpldt0(v4, v9) = v8 & sdtpldt0(v1, v2) = v6 & sdtpldt0(v0, v1) = v7))
% 8.65/2.65  | (42)  ! [v0] :  ! [v1] :  ! [v2] : (v2 = sz0z00 |  ~ (sdtasasdt0(v0, v1) = v2) |  ~ aVector0(v1) |  ~ aVector0(v0) |  ? [v3] :  ? [v4] : (aDimensionOf0(v1) = v4 & aDimensionOf0(v0) = v3 & ( ~ (v4 = sz00) |  ~ (v3 = sz00))))
% 8.65/2.65  | (43)  ! [v0] :  ! [v1] :  ! [v2] : (v1 = v0 |  ~ (sziznziztdt0(v2) = v1) |  ~ (sziznziztdt0(v2) = v0))
% 8.65/2.65  | (44)  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] :  ! [v5] :  ! [v6] :  ! [v7] :  ! [v8] :  ! [v9] :  ! [v10] : ( ~ (sdtasdt0(v1, v3) = v8) |  ~ (sdtasdt0(v1, v2) = v7) |  ~ (sdtasdt0(v0, v3) = v5) |  ~ (sdtasdt0(v0, v2) = v4) |  ~ (sdtpldt0(v7, v8) = v9) |  ~ (sdtpldt0(v6, v9) = v10) |  ~ (sdtpldt0(v4, v5) = v6) |  ~ aScalar0(v3) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v11] :  ? [v12] : (sdtasdt0(v11, v12) = v10 & sdtpldt0(v2, v3) = v12 & sdtpldt0(v0, v1) = v11))
% 8.65/2.65  | (45)  ! [v0] :  ! [v1] : (v1 = v0 |  ~ (sdtpldt0(sz0z00, v0) = v1) |  ~ aScalar0(v0))
% 8.65/2.65  | (46)  ! [v0] : ( ~ (szszuzczcdt0(v0) = sz00) |  ~ aNaturalNumber0(v0))
% 8.65/2.65  | (47) aVector0(xt)
% 8.65/2.65  | (48)  ! [v0] : ( ~ aScalar0(v0) | sdtlseqdt0(v0, v0))
% 8.65/2.65  | (49)  ! [v0] :  ! [v1] : ( ~ (szszuzczcdt0(v0) = v1) |  ~ aNaturalNumber0(v0) | iLess0(v0, v1))
% 8.65/2.65  | (50)  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] : ( ~ (sdtasdt0(v0, v3) = v4) |  ~ (sdtpldt0(v1, v2) = v3) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v5] :  ? [v6] :  ? [v7] :  ? [v8] :  ? [v9] : (sdtasdt0(v7, v2) = v8 & sdtasdt0(v1, v2) = v9 & sdtasdt0(v0, v2) = v6 & sdtasdt0(v0, v1) = v5 & sdtpldt0(v6, v9) = v8 & sdtpldt0(v5, v6) = v4 & sdtpldt0(v0, v1) = v7))
% 8.65/2.66  | (51)  ! [v0] :  ! [v1] : (all_0_9_9 = sz0z00 |  ~ (smndt0(v0) = v1) |  ~ aScalar0(v0))
% 8.65/2.66  | (52)  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (aDimensionOf0(v1) = v2) |  ~ (aDimensionOf0(v0) = v2) |  ~ aVector0(v1) |  ~ aVector0(v0) |  ? [v3] : (sdtasasdt0(v0, v1) = v3 & aScalar0(v3)))
% 8.65/2.66  | (53)  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (sdtasdt0(v0, v1) = v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) | aScalar0(v2))
% 8.65/2.66  | (54)  ! [v0] :  ! [v1] :  ! [v2] : (v1 = v0 |  ~ (smndt0(v2) = v1) |  ~ (smndt0(v2) = v0))
% 8.65/2.66  | (55)  ! [v0] :  ! [v1] : ( ~ (aDimensionOf0(v0) = v1) |  ~ aVector0(v0) | aNaturalNumber0(v1))
% 8.65/2.66  | (56) sdtlbdtrb0(xs, sz00) = all_0_6_6
% 8.65/2.66  | (57) aDimensionOf0(xs) = sz00
% 8.65/2.66  | (58)  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] : (v1 = v0 |  ~ (sdtpldt0(v3, v2) = v1) |  ~ (sdtpldt0(v3, v2) = v0))
% 8.65/2.66  | (59)  ! [v0] :  ! [v1] : ( ~ aScalar0(v1) |  ~ aScalar0(v0) | sdtlseqdt0(v1, v0) | sdtlseqdt0(v0, v1))
% 8.65/2.66  | (60)  ! [v0] :  ! [v1] : ( ~ (sdtpldt0(v0, sz0z00) = v1) |  ~ aScalar0(v0) |  ? [v2] : (smndt0(v2) = v0 & smndt0(v0) = v2 & sdtasdt0(v0, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v0) = sz0z00 & sdtpldt0(v2, v0) = sz0z00 & sdtpldt0(v0, v2) = sz0z00 & sdtpldt0(sz0z00, v0) = v0))
% 8.65/2.66  | (61)  ~ sdtlseqdt0(all_0_3_3, all_0_0_0)
% 8.65/2.66  | (62)  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] : ( ~ (smndt0(v1) = v2) |  ~ (sdtasdt0(v0, v2) = v3) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v4] :  ? [v5] : (smndt0(v4) = v3 & smndt0(v0) = v5 & sdtasdt0(v5, v1) = v3 & sdtasdt0(v0, v1) = v4))
% 8.65/2.66  | (63) sdtasasdt0(xs, xs) = all_0_2_2
% 8.65/2.66  | (64)  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (sdtasdt0(v0, v1) = v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v3] :  ? [v4] :  ? [v5] : (smndt0(v2) = v4 & smndt0(v1) = v3 & smndt0(v0) = v5 & sdtasdt0(v5, v1) = v4 & sdtasdt0(v0, v3) = v4))
% 8.65/2.66  | (65)  ! [v0] :  ! [v1] : (v1 = sz00 |  ~ (aDimensionOf0(v0) = v1) |  ~ aVector0(v0) |  ? [v2] : (sziznziztdt0(v0) = v2 &  ! [v3] :  ! [v4] :  ! [v5] : ( ~ (sdtlbdtrb0(v2, v4) = v5) |  ~ (aDimensionOf0(v2) = v3) |  ~ aNaturalNumber0(v4) | sdtlbdtrb0(v0, v4) = v5) &  ! [v3] :  ! [v4] :  ! [v5] : ( ~ (sdtlbdtrb0(v0, v4) = v5) |  ~ (aDimensionOf0(v2) = v3) |  ~ aNaturalNumber0(v4) | sdtlbdtrb0(v2, v4) = v5) &  ! [v3] :  ! [v4] : (v3 = v2 |  ~ (aDimensionOf0(v3) = v4) |  ~ aVector0(v3) |  ? [v5] :  ? [v6] :  ? [v7] : (( ~ (v7 = v6) & sdtlbdtrb0(v3, v5) = v6 & sdtlbdtrb0(v0, v5) = v7 & aNaturalNumber0(v5)) | ( ~ (v5 = v1) & szszuzczcdt0(v4) = v5))) &  ! [v3] : ( ~ (aDimensionOf0(v2) = v3) | szszuzczcdt0(v3) = v1) &  ! [v3] : ( ~ (aDimensionOf0(v2) = v3) | aVector0(v2))))
% 8.65/2.66  | (66)  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (sdtasdt0(v0, v1) = v2) |  ~ sdtlseqdt0(sz0z00, v1) |  ~ sdtlseqdt0(sz0z00, v0) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v3] : (sdtpldt0(v0, v1) = v3 & sdtlseqdt0(sz0z00, v3)))
% 8.65/2.66  | (67)  ! [v0] :  ! [v1] : ( ~ (smndt0(v0) = v1) |  ~ aScalar0(v0) | aScalar0(v1))
% 8.65/2.66  | (68)  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (sdtlbdtrb0(v0, v1) = v2) |  ~ aVector0(v0) |  ~ aNaturalNumber0(v1) | aScalar0(v2))
% 8.65/2.66  | (69)  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (sdtasdt0(v0, v1) = v2) |  ~ sdtlseqdt0(sz0z00, v1) |  ~ sdtlseqdt0(sz0z00, v0) |  ~ aScalar0(v1) |  ~ aScalar0(v0) | sdtlseqdt0(sz0z00, v2))
% 8.65/2.66  | (70) sdtlbdtrb0(xt, sz00) = all_0_5_5
% 8.65/2.66  | (71) sdtasdt0(all_0_4_4, all_0_4_4) = all_0_3_3
% 8.65/2.66  | (72)  ! [v0] :  ! [v1] : ( ~ (aDimensionOf0(v1) = sz00) |  ~ (aDimensionOf0(v0) = sz00) |  ~ aVector0(v1) |  ~ aVector0(v0) | sdtasasdt0(v0, v1) = sz0z00)
% 8.65/2.66  | (73) sdtasasdt0(xt, xt) = all_0_1_1
% 8.65/2.66  | (74) aNaturalNumber0(sz00)
% 8.65/2.66  | (75)  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] :  ! [v5] :  ! [v6] : ( ~ (sdtasdt0(v4, v5) = v6) |  ~ (sdtpldt0(v2, v3) = v5) |  ~ (sdtpldt0(v0, v1) = v4) |  ~ aScalar0(v3) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v7] :  ? [v8] :  ? [v9] :  ? [v10] :  ? [v11] :  ? [v12] : (sdtasdt0(v1, v3) = v11 & sdtasdt0(v1, v2) = v10 & sdtasdt0(v0, v3) = v8 & sdtasdt0(v0, v2) = v7 & sdtpldt0(v10, v11) = v12 & sdtpldt0(v9, v12) = v6 & sdtpldt0(v7, v8) = v9))
% 8.65/2.66  | (76)  ! [v0] :  ! [v1] :  ! [v2] : (all_0_9_9 = sz0z00 |  ~ (smndt0(v0) = v1) |  ~ (sdtpldt0(v0, v1) = v2) |  ~ aScalar0(v0))
% 8.65/2.66  | (77)  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] : (v1 = v0 |  ~ (sdtasdt0(v3, v2) = v1) |  ~ (sdtasdt0(v3, v2) = v0))
% 8.65/2.66  | (78)  ! [v0] :  ! [v1] :  ! [v2] : (v2 = sz0z00 |  ~ (smndt0(v0) = v1) |  ~ (sdtpldt0(v1, v0) = v2) |  ~ aScalar0(v0))
% 8.65/2.66  | (79)  ! [v0] :  ! [v1] :  ! [v2] : (v1 = v0 |  ~ (szszuzczcdt0(v2) = v1) |  ~ (szszuzczcdt0(v2) = v0))
% 8.65/2.66  | (80)  ! [v0] :  ! [v1] :  ! [v2] : (v2 = sz00 |  ~ (aDimensionOf0(v1) = v2) |  ~ (aDimensionOf0(v0) = v2) |  ~ aVector0(v1) |  ~ aVector0(v0) |  ? [v3] :  ? [v4] :  ? [v5] :  ? [v6] :  ? [v7] :  ? [v8] :  ? [v9] : (sdtasasdt0(v4, v5) = v6 & sdtasasdt0(v0, v1) = v3 & sziznziztdt0(v1) = v5 & sziznziztdt0(v0) = v4 & sdtlbdtrb0(v1, v2) = v8 & sdtlbdtrb0(v0, v2) = v7 & sdtasdt0(v7, v8) = v9 & sdtpldt0(v6, v9) = v3))
% 8.65/2.66  | (81)  ! [v0] :  ! [v1] : (all_0_9_9 = sz0z00 |  ~ (sdtpldt0(sz0z00, v0) = v1) |  ~ aScalar0(v0))
% 8.65/2.66  | (82) aVector0(xs)
% 8.65/2.66  | (83)  ! [v0] :  ! [v1] :  ! [v2] : ( ~ sdtlseqdt0(v1, v2) |  ~ sdtlseqdt0(v0, v1) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) | sdtlseqdt0(v0, v2))
% 8.65/2.66  | (84)  ! [v0] :  ! [v1] : ( ~ (szszuzczcdt0(v0) = v1) |  ~ aNaturalNumber0(v0) | aNaturalNumber0(v1))
% 8.65/2.66  | (85)  ! [v0] : (v0 = sz00 |  ~ aNaturalNumber0(v0) |  ? [v1] : (szszuzczcdt0(v1) = v0 & aNaturalNumber0(v1)))
% 8.65/2.66  | (86) aDimensionOf0(xt) = sz00
% 8.65/2.66  | (87)  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (sdtasasdt0(v0, v1) = v2) |  ~ aVector0(v1) |  ~ aVector0(v0) | aScalar0(v2) |  ? [v3] :  ? [v4] : ( ~ (v4 = v3) & aDimensionOf0(v1) = v4 & aDimensionOf0(v0) = v3))
% 8.65/2.66  | (88)  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (smndt0(v0) = v1) |  ~ (sdtpldt0(v1, v0) = v2) |  ~ aScalar0(v0) | (smndt0(v1) = v0 & sdtasdt0(v0, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v0) = sz0z00 & sdtpldt0(v0, v1) = sz0z00 & sdtpldt0(v0, sz0z00) = v0 & sdtpldt0(sz0z00, v0) = v0))
% 8.65/2.66  | (89)  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (sdtpldt0(v0, v1) = v2) |  ~ sdtlseqdt0(sz0z00, v1) |  ~ sdtlseqdt0(sz0z00, v0) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v3] : (sdtasdt0(v0, v1) = v3 & sdtlseqdt0(sz0z00, v3)))
% 8.65/2.67  | (90)  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] :  ! [v5] :  ! [v6] :  ! [v7] :  ! [v8] :  ! [v9] : (v2 = sz00 |  ~ (sdtasasdt0(v3, v4) = v5) |  ~ (sziznziztdt0(v1) = v4) |  ~ (sziznziztdt0(v0) = v3) |  ~ (sdtlbdtrb0(v1, v2) = v7) |  ~ (sdtlbdtrb0(v0, v2) = v6) |  ~ (aDimensionOf0(v1) = v2) |  ~ (aDimensionOf0(v0) = v2) |  ~ (sdtasdt0(v6, v7) = v8) |  ~ (sdtpldt0(v5, v8) = v9) |  ~ aVector0(v1) |  ~ aVector0(v0) | sdtasasdt0(v0, v1) = v9)
% 8.65/2.67  | (91)  ! [v0] :  ! [v1] :  ! [v2] : (v1 = v0 |  ~ (szszuzczcdt0(v1) = v2) |  ~ (szszuzczcdt0(v0) = v2) |  ~ aNaturalNumber0(v1) |  ~ aNaturalNumber0(v0))
% 8.65/2.67  | (92)  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (smndt0(v0) = v1) |  ~ (sdtpldt0(v0, v1) = v2) |  ~ aScalar0(v0) | (smndt0(v1) = v0 & sdtasdt0(v0, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v0) = sz0z00 & sdtpldt0(v1, v0) = sz0z00 & sdtpldt0(v0, sz0z00) = v0 & sdtpldt0(sz0z00, v0) = v0))
% 8.65/2.67  | (93) sdtasasdt0(xs, xt) = all_0_4_4
% 8.65/2.67  | (94)  ! [v0] :  ! [v1] : (all_0_9_9 = sz0z00 |  ~ (sdtasdt0(sz0z00, v0) = v1) |  ~ aScalar0(v0))
% 8.65/2.67  | (95)  ! [v0] :  ! [v1] : ( ~ (sdtasdt0(sz0z00, v0) = v1) |  ~ aScalar0(v0) |  ? [v2] : (smndt0(v2) = v0 & smndt0(v0) = v2 & sdtasdt0(v0, sz0z00) = sz0z00 & sdtpldt0(v2, v0) = sz0z00 & sdtpldt0(v0, v2) = sz0z00 & sdtpldt0(v0, sz0z00) = v0 & sdtpldt0(sz0z00, v0) = v0))
% 8.65/2.67  | (96)  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (sdtpldt0(v0, v1) = v2) |  ~ sdtlseqdt0(sz0z00, v1) |  ~ sdtlseqdt0(sz0z00, v0) |  ~ aScalar0(v1) |  ~ aScalar0(v0) | sdtlseqdt0(sz0z00, v2))
% 8.65/2.67  | (97)  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (sdtpldt0(v0, v1) = v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) | aScalar0(v2))
% 8.65/2.67  | (98)  ! [v0] :  ! [v1] :  ! [v2] : (v2 = sz00 |  ~ (aDimensionOf0(v1) = v2) |  ~ (aDimensionOf0(v0) = v2) |  ~ aVector0(v1) |  ~ aVector0(v0) |  ? [v3] :  ? [v4] :  ? [v5] : (sziznziztdt0(v1) = v5 & sziznziztdt0(v0) = v3 & aDimensionOf0(v5) = v4 & aDimensionOf0(v3) = v4))
% 8.65/2.67  | (99)  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] : ( ~ (sdtpldt0(v3, v2) = v4) |  ~ (sdtpldt0(v0, v1) = v3) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v5] :  ? [v6] :  ? [v7] :  ? [v8] : (sdtasdt0(v6, v2) = v7 & sdtasdt0(v1, v2) = v8 & sdtasdt0(v1, v0) = v6 & sdtasdt0(v0, v8) = v7 & sdtasdt0(v0, v1) = v6 & sdtpldt0(v1, v2) = v5 & sdtpldt0(v1, v0) = v3 & sdtpldt0(v0, v5) = v4))
% 8.65/2.67  | (100)  ! [v0] :  ! [v1] : (v1 = sz0z00 |  ~ (sdtasdt0(v0, sz0z00) = v1) |  ~ aScalar0(v0))
% 8.65/2.67  |
% 8.65/2.67  | Instantiating formula (52) with sz00, xt, xt and discharging atoms aDimensionOf0(xt) = sz00, aVector0(xt), yields:
% 8.65/2.67  | (101)  ? [v0] : (sdtasasdt0(xt, xt) = v0 & aScalar0(v0))
% 8.65/2.67  |
% 8.65/2.67  | Instantiating formula (72) with xt, xt and discharging atoms aDimensionOf0(xt) = sz00, aVector0(xt), yields:
% 8.65/2.67  | (102) sdtasasdt0(xt, xt) = sz0z00
% 8.65/2.67  |
% 8.65/2.67  | Instantiating formula (36) with all_0_0_0, all_0_1_1, all_0_2_2, xt, xs and discharging atoms sdtasasdt0(xt, xt) = all_0_1_1, sdtasasdt0(xs, xs) = all_0_2_2, sdtasdt0(all_0_2_2, all_0_1_1) = all_0_0_0, aVector0(xt), aVector0(xs), yields:
% 8.65/2.67  | (103)  ? [v0] :  ? [v1] :  ? [v2] :  ? [v3] : (sdtasasdt0(xs, xt) = v2 & aDimensionOf0(xt) = v1 & aDimensionOf0(xs) = v0 & sdtasdt0(v2, v2) = v3 & ( ~ (v1 = v0) |  ~ iLess0(v0, sz00) | sdtlseqdt0(v3, all_0_0_0)))
% 8.65/2.67  |
% 8.65/2.67  | Instantiating formula (17) with all_0_3_3, all_0_4_4, xt, xs and discharging atoms sdtasasdt0(xs, xt) = all_0_4_4, sdtasdt0(all_0_4_4, all_0_4_4) = all_0_3_3, aVector0(xt), aVector0(xs), yields:
% 8.65/2.67  | (104)  ? [v0] :  ? [v1] :  ? [v2] :  ? [v3] :  ? [v4] : (sdtasasdt0(xt, xt) = v3 & sdtasasdt0(xs, xs) = v2 & aDimensionOf0(xt) = v1 & aDimensionOf0(xs) = v0 & sdtasdt0(v2, v3) = v4 & ( ~ (v1 = v0) |  ~ iLess0(v0, sz00) | sdtlseqdt0(all_0_3_3, v4)))
% 8.65/2.67  |
% 8.65/2.67  | Instantiating formula (40) with all_0_4_4, xt, xs and discharging atoms sdtasasdt0(xs, xt) = all_0_4_4, aVector0(xt), aVector0(xs), yields:
% 8.65/2.67  | (105)  ? [v0] :  ? [v1] :  ? [v2] :  ? [v3] :  ? [v4] :  ? [v5] :  ? [v6] :  ? [v7] :  ? [v8] : (sdtasasdt0(v2, v3) = v4 & sziznziztdt0(xt) = v3 & sziznziztdt0(xs) = v2 & sdtlbdtrb0(xt, v1) = v6 & sdtlbdtrb0(xs, v0) = v5 & aDimensionOf0(xt) = v1 & aDimensionOf0(xs) = v0 & sdtasdt0(v5, v6) = v7 & sdtpldt0(v4, v7) = v8 & ( ~ (v1 = v0) | v8 = all_0_4_4 | v0 = sz00))
% 8.65/2.67  |
% 8.65/2.67  | Instantiating formula (87) with all_0_2_2, xs, xs and discharging atoms sdtasasdt0(xs, xs) = all_0_2_2, aVector0(xs), yields:
% 8.65/2.67  | (106) aScalar0(all_0_2_2) |  ? [v0] :  ? [v1] : ( ~ (v1 = v0) & aDimensionOf0(xs) = v1 & aDimensionOf0(xs) = v0)
% 8.65/2.67  |
% 8.65/2.67  | Instantiating formula (40) with all_0_2_2, xs, xs and discharging atoms sdtasasdt0(xs, xs) = all_0_2_2, aVector0(xs), yields:
% 8.65/2.67  | (107)  ? [v0] :  ? [v1] :  ? [v2] :  ? [v3] :  ? [v4] :  ? [v5] :  ? [v6] :  ? [v7] :  ? [v8] : (sdtasasdt0(v2, v3) = v4 & sziznziztdt0(xs) = v3 & sziznziztdt0(xs) = v2 & sdtlbdtrb0(xs, v1) = v6 & sdtlbdtrb0(xs, v0) = v5 & aDimensionOf0(xs) = v1 & aDimensionOf0(xs) = v0 & sdtasdt0(v5, v6) = v7 & sdtpldt0(v4, v7) = v8 & ( ~ (v1 = v0) | v8 = all_0_2_2 | v0 = sz00))
% 8.65/2.67  |
% 8.65/2.67  | Instantiating formula (31) with all_0_2_2, xs and discharging atoms sdtasasdt0(xs, xs) = all_0_2_2, aVector0(xs), yields:
% 8.65/2.67  | (108) sdtlseqdt0(sz0z00, all_0_2_2)
% 8.65/2.67  |
% 8.65/2.67  | Instantiating formula (52) with sz00, xt, xs and discharging atoms aDimensionOf0(xt) = sz00, aDimensionOf0(xs) = sz00, aVector0(xt), aVector0(xs), yields:
% 8.65/2.67  | (109)  ? [v0] : (sdtasasdt0(xs, xt) = v0 & aScalar0(v0))
% 8.65/2.67  |
% 8.65/2.67  | Instantiating formula (72) with xt, xs and discharging atoms aDimensionOf0(xt) = sz00, aDimensionOf0(xs) = sz00, aVector0(xt), aVector0(xs), yields:
% 8.65/2.67  | (110) sdtasasdt0(xs, xt) = sz0z00
% 8.65/2.67  |
% 8.65/2.67  | Instantiating formula (52) with sz00, xs, xs and discharging atoms aDimensionOf0(xs) = sz00, aVector0(xs), yields:
% 8.65/2.67  | (111)  ? [v0] : (sdtasasdt0(xs, xs) = v0 & aScalar0(v0))
% 8.65/2.67  |
% 8.65/2.67  | Instantiating formula (72) with xs, xs and discharging atoms aDimensionOf0(xs) = sz00, aVector0(xs), yields:
% 8.65/2.67  | (112) sdtasasdt0(xs, xs) = sz0z00
% 8.65/2.67  |
% 8.65/2.67  | Instantiating (109) with all_13_0_10 yields:
% 8.65/2.67  | (113) sdtasasdt0(xs, xt) = all_13_0_10 & aScalar0(all_13_0_10)
% 8.65/2.68  |
% 8.65/2.68  | Applying alpha-rule on (113) yields:
% 8.65/2.68  | (114) sdtasasdt0(xs, xt) = all_13_0_10
% 8.65/2.68  | (115) aScalar0(all_13_0_10)
% 8.65/2.68  |
% 8.65/2.68  | Instantiating (105) with all_15_0_11, all_15_1_12, all_15_2_13, all_15_3_14, all_15_4_15, all_15_5_16, all_15_6_17, all_15_7_18, all_15_8_19 yields:
% 8.65/2.68  | (116) sdtasasdt0(all_15_6_17, all_15_5_16) = all_15_4_15 & sziznziztdt0(xt) = all_15_5_16 & sziznziztdt0(xs) = all_15_6_17 & sdtlbdtrb0(xt, all_15_7_18) = all_15_2_13 & sdtlbdtrb0(xs, all_15_8_19) = all_15_3_14 & aDimensionOf0(xt) = all_15_7_18 & aDimensionOf0(xs) = all_15_8_19 & sdtasdt0(all_15_3_14, all_15_2_13) = all_15_1_12 & sdtpldt0(all_15_4_15, all_15_1_12) = all_15_0_11 & ( ~ (all_15_7_18 = all_15_8_19) | all_15_0_11 = all_0_4_4 | all_15_8_19 = sz00)
% 8.65/2.68  |
% 8.65/2.68  | Applying alpha-rule on (116) yields:
% 8.65/2.68  | (117) sdtasdt0(all_15_3_14, all_15_2_13) = all_15_1_12
% 8.65/2.68  | (118) aDimensionOf0(xs) = all_15_8_19
% 8.65/2.68  | (119) aDimensionOf0(xt) = all_15_7_18
% 8.65/2.68  | (120) sziznziztdt0(xs) = all_15_6_17
% 8.65/2.68  | (121)  ~ (all_15_7_18 = all_15_8_19) | all_15_0_11 = all_0_4_4 | all_15_8_19 = sz00
% 8.65/2.68  | (122) sdtpldt0(all_15_4_15, all_15_1_12) = all_15_0_11
% 8.65/2.68  | (123) sdtlbdtrb0(xs, all_15_8_19) = all_15_3_14
% 8.65/2.68  | (124) sdtlbdtrb0(xt, all_15_7_18) = all_15_2_13
% 8.65/2.68  | (125) sdtasasdt0(all_15_6_17, all_15_5_16) = all_15_4_15
% 8.65/2.68  | (126) sziznziztdt0(xt) = all_15_5_16
% 8.65/2.68  |
% 8.65/2.68  | Instantiating (111) with all_17_0_20 yields:
% 8.65/2.68  | (127) sdtasasdt0(xs, xs) = all_17_0_20 & aScalar0(all_17_0_20)
% 8.65/2.68  |
% 8.65/2.68  | Applying alpha-rule on (127) yields:
% 8.65/2.68  | (128) sdtasasdt0(xs, xs) = all_17_0_20
% 8.65/2.68  | (129) aScalar0(all_17_0_20)
% 8.65/2.68  |
% 8.65/2.68  | Instantiating (101) with all_21_0_22 yields:
% 8.65/2.68  | (130) sdtasasdt0(xt, xt) = all_21_0_22 & aScalar0(all_21_0_22)
% 8.65/2.68  |
% 8.65/2.68  | Applying alpha-rule on (130) yields:
% 8.65/2.68  | (131) sdtasasdt0(xt, xt) = all_21_0_22
% 8.65/2.68  | (132) aScalar0(all_21_0_22)
% 8.65/2.68  |
% 8.65/2.68  | Instantiating (107) with all_25_0_32, all_25_1_33, all_25_2_34, all_25_3_35, all_25_4_36, all_25_5_37, all_25_6_38, all_25_7_39, all_25_8_40 yields:
% 8.65/2.68  | (133) sdtasasdt0(all_25_6_38, all_25_5_37) = all_25_4_36 & sziznziztdt0(xs) = all_25_5_37 & sziznziztdt0(xs) = all_25_6_38 & sdtlbdtrb0(xs, all_25_7_39) = all_25_2_34 & sdtlbdtrb0(xs, all_25_8_40) = all_25_3_35 & aDimensionOf0(xs) = all_25_7_39 & aDimensionOf0(xs) = all_25_8_40 & sdtasdt0(all_25_3_35, all_25_2_34) = all_25_1_33 & sdtpldt0(all_25_4_36, all_25_1_33) = all_25_0_32 & ( ~ (all_25_7_39 = all_25_8_40) | all_25_0_32 = all_0_2_2 | all_25_8_40 = sz00)
% 8.65/2.68  |
% 8.65/2.68  | Applying alpha-rule on (133) yields:
% 8.65/2.68  | (134) aDimensionOf0(xs) = all_25_8_40
% 8.65/2.68  | (135)  ~ (all_25_7_39 = all_25_8_40) | all_25_0_32 = all_0_2_2 | all_25_8_40 = sz00
% 8.65/2.68  | (136) sziznziztdt0(xs) = all_25_5_37
% 8.65/2.68  | (137) aDimensionOf0(xs) = all_25_7_39
% 8.65/2.68  | (138) sdtasdt0(all_25_3_35, all_25_2_34) = all_25_1_33
% 8.65/2.68  | (139) sdtlbdtrb0(xs, all_25_7_39) = all_25_2_34
% 8.65/2.68  | (140) sdtpldt0(all_25_4_36, all_25_1_33) = all_25_0_32
% 8.65/2.68  | (141) sdtasasdt0(all_25_6_38, all_25_5_37) = all_25_4_36
% 8.65/2.68  | (142) sziznziztdt0(xs) = all_25_6_38
% 8.65/2.68  | (143) sdtlbdtrb0(xs, all_25_8_40) = all_25_3_35
% 8.65/2.68  |
% 8.65/2.68  | Instantiating (104) with all_27_0_41, all_27_1_42, all_27_2_43, all_27_3_44, all_27_4_45 yields:
% 8.65/2.68  | (144) sdtasasdt0(xt, xt) = all_27_1_42 & sdtasasdt0(xs, xs) = all_27_2_43 & aDimensionOf0(xt) = all_27_3_44 & aDimensionOf0(xs) = all_27_4_45 & sdtasdt0(all_27_2_43, all_27_1_42) = all_27_0_41 & ( ~ (all_27_3_44 = all_27_4_45) |  ~ iLess0(all_27_4_45, sz00) | sdtlseqdt0(all_0_3_3, all_27_0_41))
% 8.65/2.68  |
% 8.65/2.68  | Applying alpha-rule on (144) yields:
% 8.65/2.68  | (145) sdtasasdt0(xs, xs) = all_27_2_43
% 8.65/2.68  | (146)  ~ (all_27_3_44 = all_27_4_45) |  ~ iLess0(all_27_4_45, sz00) | sdtlseqdt0(all_0_3_3, all_27_0_41)
% 8.65/2.68  | (147) aDimensionOf0(xs) = all_27_4_45
% 8.65/2.68  | (148) sdtasasdt0(xt, xt) = all_27_1_42
% 8.65/2.68  | (149) sdtasdt0(all_27_2_43, all_27_1_42) = all_27_0_41
% 8.65/2.68  | (150) aDimensionOf0(xt) = all_27_3_44
% 8.65/2.68  |
% 8.65/2.68  | Instantiating (103) with all_29_0_46, all_29_1_47, all_29_2_48, all_29_3_49 yields:
% 8.65/2.68  | (151) sdtasasdt0(xs, xt) = all_29_1_47 & aDimensionOf0(xt) = all_29_2_48 & aDimensionOf0(xs) = all_29_3_49 & sdtasdt0(all_29_1_47, all_29_1_47) = all_29_0_46 & ( ~ (all_29_2_48 = all_29_3_49) |  ~ iLess0(all_29_3_49, sz00) | sdtlseqdt0(all_29_0_46, all_0_0_0))
% 8.65/2.68  |
% 8.65/2.68  | Applying alpha-rule on (151) yields:
% 8.65/2.68  | (152) sdtasdt0(all_29_1_47, all_29_1_47) = all_29_0_46
% 8.65/2.68  | (153) sdtasasdt0(xs, xt) = all_29_1_47
% 8.65/2.68  | (154)  ~ (all_29_2_48 = all_29_3_49) |  ~ iLess0(all_29_3_49, sz00) | sdtlseqdt0(all_29_0_46, all_0_0_0)
% 8.65/2.68  | (155) aDimensionOf0(xt) = all_29_2_48
% 8.65/2.68  | (156) aDimensionOf0(xs) = all_29_3_49
% 8.65/2.68  |
% 8.65/2.68  +-Applying beta-rule and splitting (106), into two cases.
% 8.65/2.68  |-Branch one:
% 8.65/2.68  | (157) aScalar0(all_0_2_2)
% 8.65/2.68  |
% 8.65/2.68  	| Instantiating formula (28) with xt, xt, all_27_1_42, all_0_1_1 and discharging atoms sdtasasdt0(xt, xt) = all_27_1_42, sdtasasdt0(xt, xt) = all_0_1_1, yields:
% 8.65/2.68  	| (158) all_27_1_42 = all_0_1_1
% 8.65/2.68  	|
% 8.65/2.68  	| Instantiating formula (28) with xt, xt, all_21_0_22, all_27_1_42 and discharging atoms sdtasasdt0(xt, xt) = all_27_1_42, sdtasasdt0(xt, xt) = all_21_0_22, yields:
% 8.65/2.68  	| (159) all_27_1_42 = all_21_0_22
% 8.65/2.68  	|
% 8.65/2.68  	| Instantiating formula (28) with xt, xt, sz0z00, all_27_1_42 and discharging atoms sdtasasdt0(xt, xt) = all_27_1_42, sdtasasdt0(xt, xt) = sz0z00, yields:
% 8.65/2.68  	| (160) all_27_1_42 = sz0z00
% 8.65/2.68  	|
% 8.65/2.68  	| Instantiating formula (28) with xs, xt, all_13_0_10, all_0_4_4 and discharging atoms sdtasasdt0(xs, xt) = all_13_0_10, sdtasasdt0(xs, xt) = all_0_4_4, yields:
% 8.65/2.68  	| (161) all_13_0_10 = all_0_4_4
% 8.65/2.68  	|
% 8.65/2.68  	| Instantiating formula (28) with xs, xt, all_13_0_10, all_29_1_47 and discharging atoms sdtasasdt0(xs, xt) = all_29_1_47, sdtasasdt0(xs, xt) = all_13_0_10, yields:
% 8.65/2.68  	| (162) all_29_1_47 = all_13_0_10
% 8.65/2.68  	|
% 8.65/2.68  	| Instantiating formula (28) with xs, xt, sz0z00, all_29_1_47 and discharging atoms sdtasasdt0(xs, xt) = all_29_1_47, sdtasasdt0(xs, xt) = sz0z00, yields:
% 8.65/2.68  	| (163) all_29_1_47 = sz0z00
% 8.65/2.68  	|
% 8.65/2.68  	| Instantiating formula (28) with xs, xs, all_27_2_43, all_0_2_2 and discharging atoms sdtasasdt0(xs, xs) = all_27_2_43, sdtasasdt0(xs, xs) = all_0_2_2, yields:
% 8.65/2.68  	| (164) all_27_2_43 = all_0_2_2
% 8.65/2.68  	|
% 8.65/2.68  	| Instantiating formula (28) with xs, xs, all_17_0_20, all_27_2_43 and discharging atoms sdtasasdt0(xs, xs) = all_27_2_43, sdtasasdt0(xs, xs) = all_17_0_20, yields:
% 8.65/2.68  	| (165) all_27_2_43 = all_17_0_20
% 8.65/2.68  	|
% 8.65/2.68  	| Instantiating formula (28) with xs, xs, sz0z00, all_17_0_20 and discharging atoms sdtasasdt0(xs, xs) = all_17_0_20, sdtasasdt0(xs, xs) = sz0z00, yields:
% 8.65/2.68  	| (166) all_17_0_20 = sz0z00
% 8.65/2.68  	|
% 8.65/2.68  	| Combining equations (162,163) yields a new equation:
% 8.65/2.68  	| (167) all_13_0_10 = sz0z00
% 8.65/2.68  	|
% 8.65/2.68  	| Simplifying 167 yields:
% 8.65/2.68  	| (168) all_13_0_10 = sz0z00
% 8.65/2.68  	|
% 8.65/2.68  	| Combining equations (160,159) yields a new equation:
% 8.65/2.68  	| (169) all_21_0_22 = sz0z00
% 8.65/2.68  	|
% 8.65/2.68  	| Combining equations (158,159) yields a new equation:
% 8.65/2.68  	| (170) all_21_0_22 = all_0_1_1
% 8.65/2.68  	|
% 8.65/2.68  	| Combining equations (165,164) yields a new equation:
% 8.65/2.68  	| (171) all_17_0_20 = all_0_2_2
% 8.65/2.68  	|
% 8.65/2.68  	| Simplifying 171 yields:
% 8.65/2.68  	| (172) all_17_0_20 = all_0_2_2
% 8.65/2.68  	|
% 8.65/2.68  	| Combining equations (170,169) yields a new equation:
% 8.65/2.68  	| (173) all_0_1_1 = sz0z00
% 8.65/2.68  	|
% 8.65/2.68  	| Simplifying 173 yields:
% 8.65/2.68  	| (174) all_0_1_1 = sz0z00
% 8.65/2.68  	|
% 8.65/2.68  	| Combining equations (166,172) yields a new equation:
% 8.65/2.68  	| (175) all_0_2_2 = sz0z00
% 8.65/2.69  	|
% 8.65/2.69  	| Combining equations (161,168) yields a new equation:
% 8.65/2.69  	| (176) all_0_4_4 = sz0z00
% 8.65/2.69  	|
% 8.65/2.69  	| Simplifying 176 yields:
% 8.65/2.69  	| (177) all_0_4_4 = sz0z00
% 8.65/2.69  	|
% 8.65/2.69  	| Combining equations (175,164) yields a new equation:
% 8.65/2.69  	| (178) all_27_2_43 = sz0z00
% 8.65/2.69  	|
% 8.65/2.69  	| Combining equations (169,159) yields a new equation:
% 8.65/2.69  	| (160) all_27_1_42 = sz0z00
% 8.65/2.69  	|
% 8.65/2.69  	| From (163)(163) and (152) follows:
% 8.65/2.69  	| (180) sdtasdt0(sz0z00, sz0z00) = all_29_0_46
% 8.65/2.69  	|
% 8.65/2.69  	| From (178)(160) and (149) follows:
% 8.65/2.69  	| (181) sdtasdt0(sz0z00, sz0z00) = all_27_0_41
% 8.65/2.69  	|
% 8.65/2.69  	| From (175)(174) and (8) follows:
% 8.65/2.69  	| (182) sdtasdt0(sz0z00, sz0z00) = all_0_0_0
% 8.65/2.69  	|
% 8.65/2.69  	| From (177)(177) and (71) follows:
% 8.65/2.69  	| (183) sdtasdt0(sz0z00, sz0z00) = all_0_3_3
% 8.65/2.69  	|
% 8.65/2.69  	| From (175) and (108) follows:
% 8.65/2.69  	| (184) sdtlseqdt0(sz0z00, sz0z00)
% 8.65/2.69  	|
% 8.65/2.69  	| From (175) and (157) follows:
% 8.65/2.69  	| (25) aScalar0(sz0z00)
% 8.65/2.69  	|
% 8.65/2.69  	| Instantiating formula (77) with sz0z00, sz0z00, all_27_0_41, all_29_0_46 and discharging atoms sdtasdt0(sz0z00, sz0z00) = all_29_0_46, sdtasdt0(sz0z00, sz0z00) = all_27_0_41, yields:
% 8.65/2.69  	| (186) all_29_0_46 = all_27_0_41
% 8.65/2.69  	|
% 8.65/2.69  	| Instantiating formula (100) with all_27_0_41, sz0z00 and discharging atoms sdtasdt0(sz0z00, sz0z00) = all_27_0_41, aScalar0(sz0z00), yields:
% 8.65/2.69  	| (187) all_27_0_41 = sz0z00
% 8.65/2.69  	|
% 8.65/2.69  	| Instantiating formula (77) with sz0z00, sz0z00, all_0_0_0, all_29_0_46 and discharging atoms sdtasdt0(sz0z00, sz0z00) = all_29_0_46, sdtasdt0(sz0z00, sz0z00) = all_0_0_0, yields:
% 8.65/2.69  	| (188) all_29_0_46 = all_0_0_0
% 8.65/2.69  	|
% 8.65/2.69  	| Instantiating formula (77) with sz0z00, sz0z00, all_0_3_3, all_29_0_46 and discharging atoms sdtasdt0(sz0z00, sz0z00) = all_29_0_46, sdtasdt0(sz0z00, sz0z00) = all_0_3_3, yields:
% 8.65/2.69  	| (189) all_29_0_46 = all_0_3_3
% 8.65/2.69  	|
% 8.65/2.69  	| Combining equations (186,188) yields a new equation:
% 8.65/2.69  	| (190) all_27_0_41 = all_0_0_0
% 8.65/2.69  	|
% 8.65/2.69  	| Simplifying 190 yields:
% 8.65/2.69  	| (191) all_27_0_41 = all_0_0_0
% 8.65/2.69  	|
% 8.65/2.69  	| Combining equations (189,188) yields a new equation:
% 8.65/2.69  	| (192) all_0_0_0 = all_0_3_3
% 8.65/2.69  	|
% 8.65/2.69  	| Combining equations (191,187) yields a new equation:
% 8.65/2.69  	| (193) all_0_0_0 = sz0z00
% 8.65/2.69  	|
% 8.65/2.69  	| Simplifying 193 yields:
% 8.65/2.69  	| (194) all_0_0_0 = sz0z00
% 8.65/2.69  	|
% 8.65/2.69  	| Combining equations (192,194) yields a new equation:
% 8.65/2.69  	| (195) all_0_3_3 = sz0z00
% 8.65/2.69  	|
% 8.65/2.69  	| Simplifying 195 yields:
% 8.65/2.69  	| (196) all_0_3_3 = sz0z00
% 8.65/2.69  	|
% 8.65/2.69  	| From (196)(194) and (61) follows:
% 8.65/2.69  	| (197)  ~ sdtlseqdt0(sz0z00, sz0z00)
% 8.65/2.69  	|
% 8.65/2.69  	| Using (184) and (197) yields:
% 8.65/2.69  	| (198) $false
% 8.65/2.69  	|
% 8.65/2.69  	|-The branch is then unsatisfiable
% 8.65/2.69  |-Branch two:
% 8.65/2.69  | (199)  ~ aScalar0(all_0_2_2)
% 8.65/2.69  | (200)  ? [v0] :  ? [v1] : ( ~ (v1 = v0) & aDimensionOf0(xs) = v1 & aDimensionOf0(xs) = v0)
% 8.65/2.69  |
% 8.65/2.69  	| Instantiating (200) with all_39_0_50, all_39_1_51 yields:
% 8.65/2.69  	| (201)  ~ (all_39_0_50 = all_39_1_51) & aDimensionOf0(xs) = all_39_0_50 & aDimensionOf0(xs) = all_39_1_51
% 8.65/2.69  	|
% 8.65/2.69  	| Applying alpha-rule on (201) yields:
% 8.65/2.69  	| (202)  ~ (all_39_0_50 = all_39_1_51)
% 8.65/2.69  	| (203) aDimensionOf0(xs) = all_39_0_50
% 8.65/2.69  	| (204) aDimensionOf0(xs) = all_39_1_51
% 8.65/2.69  	|
% 8.65/2.69  	| Instantiating formula (2) with xs, all_39_1_51, all_39_0_50 and discharging atoms aDimensionOf0(xs) = all_39_0_50, aDimensionOf0(xs) = all_39_1_51, yields:
% 8.65/2.69  	| (205) all_39_0_50 = all_39_1_51
% 8.65/2.69  	|
% 8.65/2.69  	| Instantiating formula (2) with xs, all_29_3_49, all_39_1_51 and discharging atoms aDimensionOf0(xs) = all_39_1_51, aDimensionOf0(xs) = all_29_3_49, yields:
% 8.65/2.69  	| (206) all_39_1_51 = all_29_3_49
% 8.65/2.69  	|
% 8.65/2.69  	| Instantiating formula (2) with xs, all_27_4_45, all_39_0_50 and discharging atoms aDimensionOf0(xs) = all_39_0_50, aDimensionOf0(xs) = all_27_4_45, yields:
% 8.65/2.69  	| (207) all_39_0_50 = all_27_4_45
% 8.65/2.69  	|
% 8.65/2.69  	| Instantiating formula (2) with xs, all_25_7_39, all_39_0_50 and discharging atoms aDimensionOf0(xs) = all_39_0_50, aDimensionOf0(xs) = all_25_7_39, yields:
% 8.65/2.69  	| (208) all_39_0_50 = all_25_7_39
% 8.65/2.69  	|
% 8.65/2.69  	| Instantiating formula (2) with xs, all_25_8_40, sz00 and discharging atoms aDimensionOf0(xs) = all_25_8_40, aDimensionOf0(xs) = sz00, yields:
% 8.65/2.69  	| (209) all_25_8_40 = sz00
% 8.65/2.69  	|
% 8.65/2.69  	| Instantiating formula (2) with xs, all_25_8_40, all_25_7_39 and discharging atoms aDimensionOf0(xs) = all_25_7_39, aDimensionOf0(xs) = all_25_8_40, yields:
% 8.65/2.69  	| (210) all_25_7_39 = all_25_8_40
% 8.65/2.69  	|
% 8.65/2.69  	| Instantiating formula (2) with xs, all_15_8_19, all_39_1_51 and discharging atoms aDimensionOf0(xs) = all_39_1_51, aDimensionOf0(xs) = all_15_8_19, yields:
% 8.65/2.69  	| (211) all_39_1_51 = all_15_8_19
% 8.65/2.69  	|
% 8.65/2.69  	| Combining equations (208,207) yields a new equation:
% 8.65/2.69  	| (212) all_27_4_45 = all_25_7_39
% 8.65/2.69  	|
% 8.65/2.69  	| Combining equations (205,207) yields a new equation:
% 8.65/2.69  	| (213) all_39_1_51 = all_27_4_45
% 8.65/2.69  	|
% 8.65/2.69  	| Simplifying 213 yields:
% 8.65/2.69  	| (214) all_39_1_51 = all_27_4_45
% 8.65/2.69  	|
% 8.65/2.69  	| Combining equations (211,206) yields a new equation:
% 8.65/2.69  	| (215) all_29_3_49 = all_15_8_19
% 8.65/2.69  	|
% 8.65/2.69  	| Combining equations (214,206) yields a new equation:
% 8.65/2.69  	| (216) all_29_3_49 = all_27_4_45
% 8.65/2.69  	|
% 8.65/2.69  	| Combining equations (216,215) yields a new equation:
% 8.65/2.69  	| (217) all_27_4_45 = all_15_8_19
% 8.65/2.69  	|
% 8.65/2.69  	| Simplifying 217 yields:
% 8.65/2.69  	| (218) all_27_4_45 = all_15_8_19
% 8.65/2.69  	|
% 8.65/2.69  	| Combining equations (212,218) yields a new equation:
% 8.65/2.69  	| (219) all_25_7_39 = all_15_8_19
% 8.65/2.69  	|
% 8.65/2.69  	| Simplifying 219 yields:
% 8.65/2.69  	| (220) all_25_7_39 = all_15_8_19
% 8.65/2.69  	|
% 8.65/2.69  	| Combining equations (210,220) yields a new equation:
% 8.65/2.69  	| (221) all_25_8_40 = all_15_8_19
% 8.65/2.69  	|
% 8.65/2.69  	| Simplifying 221 yields:
% 8.65/2.69  	| (222) all_25_8_40 = all_15_8_19
% 8.65/2.69  	|
% 8.65/2.69  	| Combining equations (222,209) yields a new equation:
% 8.65/2.69  	| (223) all_15_8_19 = sz00
% 8.65/2.69  	|
% 8.65/2.69  	| Simplifying 223 yields:
% 8.65/2.69  	| (224) all_15_8_19 = sz00
% 8.65/2.69  	|
% 8.65/2.69  	| Combining equations (224,218) yields a new equation:
% 8.65/2.69  	| (225) all_27_4_45 = sz00
% 8.65/2.69  	|
% 8.65/2.69  	| Combining equations (224,215) yields a new equation:
% 8.65/2.69  	| (226) all_29_3_49 = sz00
% 8.65/2.69  	|
% 8.65/2.69  	| Combining equations (226,206) yields a new equation:
% 8.65/2.69  	| (227) all_39_1_51 = sz00
% 8.65/2.69  	|
% 8.65/2.69  	| Combining equations (225,207) yields a new equation:
% 8.65/2.69  	| (228) all_39_0_50 = sz00
% 8.65/2.69  	|
% 8.65/2.69  	| Equations (228,227) can reduce 202 to:
% 8.65/2.69  	| (229) $false
% 8.65/2.69  	|
% 8.65/2.69  	|-The branch is then unsatisfiable
% 8.65/2.69  % SZS output end Proof for theBenchmark
% 8.65/2.69  
% 8.65/2.69  2090ms
%------------------------------------------------------------------------------