TSTP Solution File: RNG080+2 by ePrincess---1.0

View Problem - Process Solution

%------------------------------------------------------------------------------
% File     : ePrincess---1.0
% Problem  : RNG080+2 : TPTP v8.1.0. Released v4.0.0.
% Transfm  : none
% Format   : tptp:raw
% Command  : ePrincess-casc -timeout=%d %s

% Computer : n028.cluster.edu
% Model    : x86_64 x86_64
% CPU      : Intel(R) Xeon(R) CPU E5-2620 v4 2.10GHz
% Memory   : 8042.1875MB
% OS       : Linux 3.10.0-693.el7.x86_64
% CPULimit : 300s
% WCLimit  : 600s
% DateTime : Mon Jul 18 20:25:18 EDT 2022

% Result   : Theorem 5.76s 1.99s
% Output   : Proof 12.17s
% Verified : 
% SZS Type : -

% Comments : 
%------------------------------------------------------------------------------
%----WARNING: Could not form TPTP format derivation
%------------------------------------------------------------------------------
%----ORIGINAL SYSTEM OUTPUT
% 0.00/0.12  % Problem  : RNG080+2 : TPTP v8.1.0. Released v4.0.0.
% 0.12/0.13  % Command  : ePrincess-casc -timeout=%d %s
% 0.12/0.33  % Computer : n028.cluster.edu
% 0.12/0.33  % Model    : x86_64 x86_64
% 0.12/0.33  % CPU      : Intel(R) Xeon(R) CPU E5-2620 v4 @ 2.10GHz
% 0.12/0.33  % Memory   : 8042.1875MB
% 0.12/0.33  % OS       : Linux 3.10.0-693.el7.x86_64
% 0.12/0.33  % CPULimit : 300
% 0.12/0.33  % WCLimit  : 600
% 0.12/0.33  % DateTime : Mon May 30 19:49:05 EDT 2022
% 0.12/0.34  % CPUTime  : 
% 0.54/0.58          ____       _                          
% 0.54/0.58    ___  / __ \_____(_)___  ________  __________
% 0.54/0.58   / _ \/ /_/ / ___/ / __ \/ ___/ _ \/ ___/ ___/
% 0.54/0.58  /  __/ ____/ /  / / / / / /__/  __(__  |__  ) 
% 0.54/0.58  \___/_/   /_/  /_/_/ /_/\___/\___/____/____/  
% 0.54/0.58  
% 0.54/0.58  A Theorem Prover for First-Order Logic
% 0.54/0.58  (ePrincess v.1.0)
% 0.54/0.58  
% 0.54/0.58  (c) Philipp Rümmer, 2009-2015
% 0.54/0.58  (c) Peter Backeman, 2014-2015
% 0.54/0.58  (contributions by Angelo Brillout, Peter Baumgartner)
% 0.54/0.58  Free software under GNU Lesser General Public License (LGPL).
% 0.54/0.58  Bug reports to peter@backeman.se
% 0.54/0.58  
% 0.54/0.58  For more information, visit http://user.uu.se/~petba168/breu/
% 0.54/0.58  
% 0.54/0.59  Loading /export/starexec/sandbox/benchmark/theBenchmark.p ...
% 0.75/0.64  Prover 0: Options:  -triggersInConjecture -genTotalityAxioms -tightFunctionScopes -clausifier=simple -reverseFunctionalityPropagation +boolFunsAsPreds -triggerStrategy=allMaximal -resolutionMethod=nonUnifying +ignoreQuantifiers -generateTriggers=all
% 1.98/1.01  Prover 0: Preprocessing ...
% 4.12/1.54  Prover 0: Constructing countermodel ...
% 5.76/1.99  Prover 0: proved (1352ms)
% 5.76/1.99  
% 5.76/1.99  No countermodel exists, formula is valid
% 5.76/1.99  % SZS status Theorem for theBenchmark
% 5.76/1.99  
% 5.76/1.99  Generating proof ... found it (size 101)
% 11.53/3.28  
% 11.53/3.28  % SZS output start Proof for theBenchmark
% 11.53/3.28  Assumed formulas after preprocessing and simplification: 
% 11.53/3.28  | (0)  ? [v0] :  ? [v1] :  ? [v2] :  ? [v3] :  ? [v4] :  ? [v5] :  ? [v6] :  ? [v7] :  ? [v8] :  ? [v9] :  ? [v10] :  ? [v11] :  ? [v12] :  ? [v13] :  ? [v14] :  ? [v15] :  ? [v16] :  ? [v17] : ( ~ (v1 = sz00) & sdtasasdt0(xq, xq) = xD & sdtasasdt0(xp, xq) = xE & sdtasasdt0(xp, xp) = xC & sdtasasdt0(xt, xt) = v16 & sdtasasdt0(xs, xt) = v13 & sdtasasdt0(xs, xs) = v15 & sziznziztdt0(xt) = xq & sziznziztdt0(xs) = xp & sdtlbdtrb0(xt, v1) = xB & sdtlbdtrb0(xs, v1) = xA & aDimensionOf0(xq) = v3 & aDimensionOf0(xp) = v2 & aDimensionOf0(xt) = v1 & aDimensionOf0(xs) = v1 & smndt0(sz0z00) = v0 & sdtasdt0(v15, v16) = v17 & sdtasdt0(v13, v13) = v14 & sdtasdt0(v10, v11) = v12 & sdtasdt0(v8, v8) = v9 & sdtasdt0(xR, xS) = xN & sdtasdt0(xF, xD) = xS & sdtasdt0(xE, xH) = xP & sdtasdt0(xE, xE) = v4 & sdtasdt0(xC, xG) = xR & sdtasdt0(xC, xD) = v5 & sdtasdt0(xB, xB) = xG & sdtasdt0(xA, xB) = xH & sdtasdt0(xA, xA) = xF & sdtpldt0(xP, xP) = v6 & sdtpldt0(xR, xS) = v7 & sdtpldt0(xE, xH) = v8 & sdtpldt0(xD, xG) = v11 & sdtpldt0(xC, xF) = v10 & szszuzczcdt0(v3) = v1 & szszuzczcdt0(v2) = v1 & aVector0(xq) & aVector0(xp) & aVector0(xt) & aVector0(xs) & sdtlseqdt0(v9, v12) & sdtlseqdt0(v6, v7) & sdtlseqdt0(v4, v5) & aScalar0(xN) & aScalar0(xS) & aScalar0(xP) & aScalar0(xR) & aScalar0(xH) & aScalar0(xG) & aScalar0(xF) & aScalar0(xE) & aScalar0(xD) & aScalar0(xC) & aScalar0(xB) & aScalar0(xA) & aScalar0(sz0z00) & aNaturalNumber0(sz00) &  ~ sdtlseqdt0(v14, v17) &  ! [v18] :  ! [v19] :  ! [v20] :  ! [v21] :  ! [v22] :  ! [v23] :  ! [v24] :  ! [v25] :  ! [v26] :  ! [v27] :  ! [v28] : ( ~ (sdtasdt0(v19, v21) = v26) |  ~ (sdtasdt0(v19, v20) = v25) |  ~ (sdtasdt0(v18, v21) = v23) |  ~ (sdtasdt0(v18, v20) = v22) |  ~ (sdtpldt0(v25, v26) = v27) |  ~ (sdtpldt0(v24, v27) = v28) |  ~ (sdtpldt0(v22, v23) = v24) |  ~ aScalar0(v21) |  ~ aScalar0(v20) |  ~ aScalar0(v19) |  ~ aScalar0(v18) |  ? [v29] :  ? [v30] : (sdtasdt0(v29, v30) = v28 & sdtpldt0(v20, v21) = v30 & sdtpldt0(v18, v19) = v29)) &  ! [v18] :  ! [v19] :  ! [v20] :  ! [v21] :  ! [v22] :  ! [v23] :  ! [v24] :  ! [v25] :  ! [v26] :  ! [v27] : (v20 = sz00 |  ~ (sdtasasdt0(v21, v22) = v23) |  ~ (sziznziztdt0(v19) = v22) |  ~ (sziznziztdt0(v18) = v21) |  ~ (sdtlbdtrb0(v19, v20) = v25) |  ~ (sdtlbdtrb0(v18, v20) = v24) |  ~ (aDimensionOf0(v19) = v20) |  ~ (aDimensionOf0(v18) = v20) |  ~ (sdtasdt0(v24, v25) = v26) |  ~ (sdtpldt0(v23, v26) = v27) |  ~ aVector0(v19) |  ~ aVector0(v18) | sdtasasdt0(v18, v19) = v27) &  ! [v18] :  ! [v19] :  ! [v20] :  ! [v21] :  ! [v22] :  ! [v23] :  ! [v24] : ( ~ (sdtasdt0(v22, v23) = v24) |  ~ (sdtpldt0(v20, v21) = v23) |  ~ (sdtpldt0(v18, v19) = v22) |  ~ aScalar0(v21) |  ~ aScalar0(v20) |  ~ aScalar0(v19) |  ~ aScalar0(v18) |  ? [v25] :  ? [v26] :  ? [v27] :  ? [v28] :  ? [v29] :  ? [v30] : (sdtasdt0(v19, v21) = v29 & sdtasdt0(v19, v20) = v28 & sdtasdt0(v18, v21) = v26 & sdtasdt0(v18, v20) = v25 & sdtpldt0(v28, v29) = v30 & sdtpldt0(v27, v30) = v24 & sdtpldt0(v25, v26) = v27)) &  ! [v18] :  ! [v19] :  ! [v20] :  ! [v21] :  ! [v22] :  ! [v23] : ( ~ (sdtasdt0(v19, v21) = v23) |  ~ (sdtasdt0(v18, v20) = v22) |  ~ sdtlseqdt0(v20, v21) |  ~ sdtlseqdt0(v18, v19) |  ~ sdtlseqdt0(sz0z00, v20) |  ~ aScalar0(v21) |  ~ aScalar0(v20) |  ~ aScalar0(v19) |  ~ aScalar0(v18) | sdtlseqdt0(v22, v23)) &  ! [v18] :  ! [v19] :  ! [v20] :  ! [v21] :  ! [v22] :  ! [v23] : ( ~ (sdtasdt0(v19, v20) = v22) |  ~ (sdtasdt0(v18, v20) = v21) |  ~ (sdtpldt0(v21, v22) = v23) |  ~ aScalar0(v20) |  ~ aScalar0(v19) |  ~ aScalar0(v18) |  ? [v24] :  ? [v25] :  ? [v26] :  ? [v27] : (sdtasdt0(v27, v20) = v23 & sdtasdt0(v18, v24) = v25 & sdtasdt0(v18, v19) = v26 & sdtpldt0(v26, v21) = v25 & sdtpldt0(v19, v20) = v24 & sdtpldt0(v18, v19) = v27)) &  ! [v18] :  ! [v19] :  ! [v20] :  ! [v21] :  ! [v22] :  ! [v23] : ( ~ (sdtasdt0(v18, v20) = v22) |  ~ (sdtasdt0(v18, v19) = v21) |  ~ (sdtpldt0(v21, v22) = v23) |  ~ aScalar0(v20) |  ~ aScalar0(v19) |  ~ aScalar0(v18) |  ? [v24] :  ? [v25] :  ? [v26] :  ? [v27] : (sdtasdt0(v25, v20) = v26 & sdtasdt0(v19, v20) = v27 & sdtasdt0(v18, v24) = v23 & sdtpldt0(v22, v27) = v26 & sdtpldt0(v19, v20) = v24 & sdtpldt0(v18, v19) = v25)) &  ! [v18] :  ! [v19] :  ! [v20] :  ! [v21] :  ! [v22] :  ! [v23] : ( ~ (sdtpldt0(v19, v21) = v23) |  ~ (sdtpldt0(v18, v20) = v22) |  ~ sdtlseqdt0(v20, v21) |  ~ sdtlseqdt0(v18, v19) |  ~ aScalar0(v21) |  ~ aScalar0(v20) |  ~ aScalar0(v19) |  ~ aScalar0(v18) | sdtlseqdt0(v22, v23)) &  ! [v18] :  ! [v19] :  ! [v20] :  ! [v21] :  ! [v22] : ( ~ (sdtasasdt0(v19, v19) = v21) |  ~ (sdtasasdt0(v18, v18) = v20) |  ~ (sdtasdt0(v20, v21) = v22) |  ~ aVector0(v19) |  ~ aVector0(v18) |  ? [v23] :  ? [v24] :  ? [v25] :  ? [v26] : (sdtasasdt0(v18, v19) = v25 & aDimensionOf0(v19) = v24 & aDimensionOf0(v18) = v23 & sdtasdt0(v25, v25) = v26 & ( ~ (v24 = v23) |  ~ iLess0(v23, v1) | sdtlseqdt0(v26, v22)))) &  ! [v18] :  ! [v19] :  ! [v20] :  ! [v21] :  ! [v22] : ( ~ (smndt0(v19) = v21) |  ~ (smndt0(v18) = v20) |  ~ (sdtasdt0(v20, v21) = v22) |  ~ aScalar0(v19) |  ~ aScalar0(v18) | sdtasdt0(v18, v19) = v22) &  ! [v18] :  ! [v19] :  ! [v20] :  ! [v21] :  ! [v22] : ( ~ (sdtasdt0(v21, v20) = v22) |  ~ (sdtasdt0(v18, v19) = v21) |  ~ aScalar0(v20) |  ~ aScalar0(v19) |  ~ aScalar0(v18) |  ? [v23] :  ? [v24] :  ? [v25] :  ? [v26] : (sdtasdt0(v19, v20) = v26 & sdtasdt0(v19, v18) = v21 & sdtasdt0(v18, v26) = v22 & sdtpldt0(v23, v20) = v24 & sdtpldt0(v19, v20) = v25 & sdtpldt0(v19, v18) = v23 & sdtpldt0(v18, v25) = v24 & sdtpldt0(v18, v19) = v23)) &  ! [v18] :  ! [v19] :  ! [v20] :  ! [v21] :  ! [v22] : ( ~ (sdtasdt0(v21, v20) = v22) |  ~ (sdtpldt0(v18, v19) = v21) |  ~ aScalar0(v20) |  ~ aScalar0(v19) |  ~ aScalar0(v18) |  ? [v23] :  ? [v24] :  ? [v25] :  ? [v26] :  ? [v27] : (sdtasdt0(v19, v20) = v27 & sdtasdt0(v18, v23) = v24 & sdtasdt0(v18, v20) = v26 & sdtasdt0(v18, v19) = v25 & sdtpldt0(v26, v27) = v22 & sdtpldt0(v25, v26) = v24 & sdtpldt0(v19, v20) = v23)) &  ! [v18] :  ! [v19] :  ! [v20] :  ! [v21] :  ! [v22] : ( ~ (sdtasdt0(v19, v20) = v21) |  ~ (sdtasdt0(v18, v21) = v22) |  ~ aScalar0(v20) |  ~ aScalar0(v19) |  ~ aScalar0(v18) |  ? [v23] :  ? [v24] :  ? [v25] :  ? [v26] : (sdtasdt0(v26, v20) = v22 & sdtasdt0(v19, v18) = v26 & sdtasdt0(v18, v19) = v26 & sdtpldt0(v23, v20) = v24 & sdtpldt0(v19, v20) = v25 & sdtpldt0(v19, v18) = v23 & sdtpldt0(v18, v25) = v24 & sdtpldt0(v18, v19) = v23)) &  ! [v18] :  ! [v19] :  ! [v20] :  ! [v21] :  ! [v22] : ( ~ (sdtasdt0(v18, v21) = v22) |  ~ (sdtpldt0(v19, v20) = v21) |  ~ aScalar0(v20) |  ~ aScalar0(v19) |  ~ aScalar0(v18) |  ? [v23] :  ? [v24] :  ? [v25] :  ? [v26] :  ? [v27] : (sdtasdt0(v25, v20) = v26 & sdtasdt0(v19, v20) = v27 & sdtasdt0(v18, v20) = v24 & sdtasdt0(v18, v19) = v23 & sdtpldt0(v24, v27) = v26 & sdtpldt0(v23, v24) = v22 & sdtpldt0(v18, v19) = v25)) &  ! [v18] :  ! [v19] :  ! [v20] :  ! [v21] :  ! [v22] : ( ~ (sdtpldt0(v21, v20) = v22) |  ~ (sdtpldt0(v18, v19) = v21) |  ~ aScalar0(v20) |  ~ aScalar0(v19) |  ~ aScalar0(v18) |  ? [v23] :  ? [v24] :  ? [v25] :  ? [v26] : (sdtasdt0(v24, v20) = v25 & sdtasdt0(v19, v20) = v26 & sdtasdt0(v19, v18) = v24 & sdtasdt0(v18, v26) = v25 & sdtasdt0(v18, v19) = v24 & sdtpldt0(v19, v20) = v23 & sdtpldt0(v19, v18) = v21 & sdtpldt0(v18, v23) = v22)) &  ! [v18] :  ! [v19] :  ! [v20] :  ! [v21] :  ! [v22] : ( ~ (sdtpldt0(v19, v20) = v21) |  ~ (sdtpldt0(v18, v21) = v22) |  ~ aScalar0(v20) |  ~ aScalar0(v19) |  ~ aScalar0(v18) |  ? [v23] :  ? [v24] :  ? [v25] :  ? [v26] : (sdtasdt0(v24, v20) = v25 & sdtasdt0(v19, v20) = v26 & sdtasdt0(v19, v18) = v24 & sdtasdt0(v18, v26) = v25 & sdtasdt0(v18, v19) = v24 & sdtpldt0(v23, v20) = v22 & sdtpldt0(v19, v18) = v23 & sdtpldt0(v18, v19) = v23)) &  ! [v18] :  ! [v19] :  ! [v20] :  ! [v21] : (v20 = sz00 |  ~ (sziznziztdt0(v18) = v21) |  ~ (aDimensionOf0(v19) = v20) |  ~ aVector0(v19) |  ~ aVector0(v18) |  ? [v22] :  ? [v23] :  ? [v24] :  ? [v25] : (sziznziztdt0(v19) = v24 & aDimensionOf0(v24) = v25 & aDimensionOf0(v21) = v23 & aDimensionOf0(v18) = v22 & ( ~ (v22 = v20) | v25 = v23))) &  ! [v18] :  ! [v19] :  ! [v20] :  ! [v21] : (v19 = v18 |  ~ (sdtasasdt0(v21, v20) = v19) |  ~ (sdtasasdt0(v21, v20) = v18)) &  ! [v18] :  ! [v19] :  ! [v20] :  ! [v21] : (v19 = v18 |  ~ (sdtlbdtrb0(v21, v20) = v19) |  ~ (sdtlbdtrb0(v21, v20) = v18)) &  ! [v18] :  ! [v19] :  ! [v20] :  ! [v21] : (v19 = v18 |  ~ (sdtasdt0(v21, v20) = v19) |  ~ (sdtasdt0(v21, v20) = v18)) &  ! [v18] :  ! [v19] :  ! [v20] :  ! [v21] : (v19 = v18 |  ~ (sdtpldt0(v21, v20) = v19) |  ~ (sdtpldt0(v21, v20) = v18)) &  ! [v18] :  ! [v19] :  ! [v20] :  ! [v21] : ( ~ (sdtasasdt0(v18, v19) = v20) |  ~ (sdtasdt0(v20, v20) = v21) |  ~ aVector0(v19) |  ~ aVector0(v18) |  ? [v22] :  ? [v23] :  ? [v24] :  ? [v25] :  ? [v26] : (sdtasasdt0(v19, v19) = v25 & sdtasasdt0(v18, v18) = v24 & aDimensionOf0(v19) = v23 & aDimensionOf0(v18) = v22 & sdtasdt0(v24, v25) = v26 & ( ~ (v23 = v22) |  ~ iLess0(v22, v1) | sdtlseqdt0(v21, v26)))) &  ! [v18] :  ! [v19] :  ! [v20] :  ! [v21] : ( ~ (sziznziztdt0(v19) = v21) |  ~ (sziznziztdt0(v18) = v20) |  ~ aVector0(v19) |  ~ aVector0(v18) |  ? [v22] :  ? [v23] :  ? [v24] :  ? [v25] : (aDimensionOf0(v21) = v25 & aDimensionOf0(v20) = v24 & aDimensionOf0(v19) = v23 & aDimensionOf0(v18) = v22 & ( ~ (v23 = v22) | v25 = v24 | v22 = sz00))) &  ! [v18] :  ! [v19] :  ! [v20] :  ! [v21] : ( ~ (sziznziztdt0(v19) = v21) |  ~ (aDimensionOf0(v18) = v20) |  ~ aVector0(v19) |  ~ aVector0(v18) |  ? [v22] :  ? [v23] :  ? [v24] :  ? [v25] : (sziznziztdt0(v18) = v23 & aDimensionOf0(v23) = v24 & aDimensionOf0(v21) = v25 & aDimensionOf0(v19) = v22 & ( ~ (v22 = v20) | v25 = v24 | v20 = sz00))) &  ! [v18] :  ! [v19] :  ! [v20] :  ! [v21] : ( ~ (smndt0(v19) = v20) |  ~ (sdtasdt0(v18, v20) = v21) |  ~ aScalar0(v19) |  ~ aScalar0(v18) |  ? [v22] :  ? [v23] : (smndt0(v22) = v21 & smndt0(v18) = v23 & sdtasdt0(v23, v19) = v21 & sdtasdt0(v18, v19) = v22)) &  ! [v18] :  ! [v19] :  ! [v20] :  ! [v21] : ( ~ (smndt0(v18) = v20) |  ~ (sdtasdt0(v20, v19) = v21) |  ~ aScalar0(v19) |  ~ aScalar0(v18) |  ? [v22] :  ? [v23] : (smndt0(v23) = v21 & smndt0(v19) = v22 & sdtasdt0(v18, v22) = v21 & sdtasdt0(v18, v19) = v23)) &  ! [v18] :  ! [v19] :  ! [v20] : (v20 = sz0z00 |  ~ (sdtasasdt0(v18, v19) = v20) |  ~ aVector0(v19) |  ~ aVector0(v18) |  ? [v21] :  ? [v22] : (aDimensionOf0(v19) = v22 & aDimensionOf0(v18) = v21 & ( ~ (v22 = sz00) |  ~ (v21 = sz00)))) &  ! [v18] :  ! [v19] :  ! [v20] : (v20 = sz0z00 |  ~ (smndt0(v18) = v19) |  ~ (sdtpldt0(v19, v18) = v20) |  ~ aScalar0(v18)) &  ! [v18] :  ! [v19] :  ! [v20] : (v20 = sz0z00 |  ~ (smndt0(v18) = v19) |  ~ (sdtpldt0(v18, v19) = v20) |  ~ aScalar0(v18)) &  ! [v18] :  ! [v19] :  ! [v20] : (v20 = sz00 |  ~ (aDimensionOf0(v19) = v20) |  ~ (aDimensionOf0(v18) = v20) |  ~ aVector0(v19) |  ~ aVector0(v18) |  ? [v21] :  ? [v22] :  ? [v23] :  ? [v24] :  ? [v25] :  ? [v26] :  ? [v27] : (sdtasasdt0(v22, v23) = v24 & sdtasasdt0(v18, v19) = v21 & sziznziztdt0(v19) = v23 & sziznziztdt0(v18) = v22 & sdtlbdtrb0(v19, v20) = v26 & sdtlbdtrb0(v18, v20) = v25 & sdtasdt0(v25, v26) = v27 & sdtpldt0(v24, v27) = v21)) &  ! [v18] :  ! [v19] :  ! [v20] : (v20 = sz00 |  ~ (aDimensionOf0(v19) = v20) |  ~ (aDimensionOf0(v18) = v20) |  ~ aVector0(v19) |  ~ aVector0(v18) |  ? [v21] :  ? [v22] :  ? [v23] : (sziznziztdt0(v19) = v23 & sziznziztdt0(v18) = v21 & aDimensionOf0(v23) = v22 & aDimensionOf0(v21) = v22)) &  ! [v18] :  ! [v19] :  ! [v20] : (v19 = v18 |  ~ (sziznziztdt0(v20) = v19) |  ~ (sziznziztdt0(v20) = v18)) &  ! [v18] :  ! [v19] :  ! [v20] : (v19 = v18 |  ~ (aDimensionOf0(v20) = v19) |  ~ (aDimensionOf0(v20) = v18)) &  ! [v18] :  ! [v19] :  ! [v20] : (v19 = v18 |  ~ (smndt0(v20) = v19) |  ~ (smndt0(v20) = v18)) &  ! [v18] :  ! [v19] :  ! [v20] : (v19 = v18 |  ~ (sdtasdt0(v19, v19) = v20) |  ~ (sdtasdt0(v18, v18) = v20) |  ~ sdtlseqdt0(sz0z00, v19) |  ~ sdtlseqdt0(sz0z00, v18) |  ~ aScalar0(v19) |  ~ aScalar0(v18)) &  ! [v18] :  ! [v19] :  ! [v20] : (v19 = v18 |  ~ (szszuzczcdt0(v20) = v19) |  ~ (szszuzczcdt0(v20) = v18)) &  ! [v18] :  ! [v19] :  ! [v20] : (v19 = v18 |  ~ (szszuzczcdt0(v19) = v20) |  ~ (szszuzczcdt0(v18) = v20) |  ~ aNaturalNumber0(v19) |  ~ aNaturalNumber0(v18)) &  ! [v18] :  ! [v19] :  ! [v20] : (v0 = sz0z00 |  ~ (smndt0(v18) = v19) |  ~ (sdtpldt0(v19, v18) = v20) |  ~ aScalar0(v18)) &  ! [v18] :  ! [v19] :  ! [v20] : (v0 = sz0z00 |  ~ (smndt0(v18) = v19) |  ~ (sdtpldt0(v18, v19) = v20) |  ~ aScalar0(v18)) &  ! [v18] :  ! [v19] :  ! [v20] : ( ~ (sdtasasdt0(v18, v19) = v20) |  ~ aVector0(v19) |  ~ aVector0(v18) | aScalar0(v20) |  ? [v21] :  ? [v22] : ( ~ (v22 = v21) & aDimensionOf0(v19) = v22 & aDimensionOf0(v18) = v21)) &  ! [v18] :  ! [v19] :  ! [v20] : ( ~ (sdtasasdt0(v18, v19) = v20) |  ~ aVector0(v19) |  ~ aVector0(v18) |  ? [v21] :  ? [v22] :  ? [v23] :  ? [v24] :  ? [v25] :  ? [v26] :  ? [v27] :  ? [v28] :  ? [v29] : (sdtasasdt0(v23, v24) = v25 & sziznziztdt0(v19) = v24 & sziznziztdt0(v18) = v23 & sdtlbdtrb0(v19, v22) = v27 & sdtlbdtrb0(v18, v21) = v26 & aDimensionOf0(v19) = v22 & aDimensionOf0(v18) = v21 & sdtasdt0(v26, v27) = v28 & sdtpldt0(v25, v28) = v29 & ( ~ (v22 = v21) | v29 = v20 | v21 = sz00))) &  ! [v18] :  ! [v19] :  ! [v20] : ( ~ (sdtlbdtrb0(v18, v19) = v20) |  ~ aVector0(v18) |  ~ aNaturalNumber0(v19) | aScalar0(v20)) &  ! [v18] :  ! [v19] :  ! [v20] : ( ~ (aDimensionOf0(v19) = v20) |  ~ (aDimensionOf0(v18) = v20) |  ~ aVector0(v19) |  ~ aVector0(v18) |  ~ iLess0(v20, v1) |  ? [v21] :  ? [v22] :  ? [v23] :  ? [v24] :  ? [v25] : (sdtasasdt0(v19, v19) = v24 & sdtasasdt0(v18, v19) = v21 & sdtasasdt0(v18, v18) = v23 & sdtasdt0(v23, v24) = v25 & sdtasdt0(v21, v21) = v22 & sdtlseqdt0(v22, v25))) &  ! [v18] :  ! [v19] :  ! [v20] : ( ~ (aDimensionOf0(v19) = v20) |  ~ (aDimensionOf0(v18) = v20) |  ~ aVector0(v19) |  ~ aVector0(v18) |  ? [v21] : (sdtasasdt0(v18, v19) = v21 & aScalar0(v21))) &  ! [v18] :  ! [v19] :  ! [v20] : ( ~ (smndt0(v18) = v19) |  ~ (sdtpldt0(v19, v18) = v20) |  ~ aScalar0(v18) | (smndt0(v19) = v18 & sdtasdt0(v18, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v18) = sz0z00 & sdtpldt0(v18, v19) = sz0z00 & sdtpldt0(v18, sz0z00) = v18 & sdtpldt0(sz0z00, v18) = v18)) &  ! [v18] :  ! [v19] :  ! [v20] : ( ~ (smndt0(v18) = v19) |  ~ (sdtpldt0(v18, v19) = v20) |  ~ aScalar0(v18) | (smndt0(v19) = v18 & sdtasdt0(v18, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v18) = sz0z00 & sdtpldt0(v19, v18) = sz0z00 & sdtpldt0(v18, sz0z00) = v18 & sdtpldt0(sz0z00, v18) = v18)) &  ! [v18] :  ! [v19] :  ! [v20] : ( ~ (sdtasdt0(v18, v19) = v20) |  ~ sdtlseqdt0(sz0z00, v19) |  ~ sdtlseqdt0(sz0z00, v18) |  ~ aScalar0(v19) |  ~ aScalar0(v18) | sdtlseqdt0(sz0z00, v20)) &  ! [v18] :  ! [v19] :  ! [v20] : ( ~ (sdtasdt0(v18, v19) = v20) |  ~ sdtlseqdt0(sz0z00, v19) |  ~ sdtlseqdt0(sz0z00, v18) |  ~ aScalar0(v19) |  ~ aScalar0(v18) |  ? [v21] : (sdtpldt0(v18, v19) = v21 & sdtlseqdt0(sz0z00, v21))) &  ! [v18] :  ! [v19] :  ! [v20] : ( ~ (sdtasdt0(v18, v19) = v20) |  ~ aScalar0(v19) |  ~ aScalar0(v18) | aScalar0(v20)) &  ! [v18] :  ! [v19] :  ! [v20] : ( ~ (sdtasdt0(v18, v19) = v20) |  ~ aScalar0(v19) |  ~ aScalar0(v18) |  ? [v21] :  ? [v22] :  ? [v23] : (smndt0(v20) = v22 & smndt0(v19) = v21 & smndt0(v18) = v23 & sdtasdt0(v23, v19) = v22 & sdtasdt0(v18, v21) = v22)) &  ! [v18] :  ! [v19] :  ! [v20] : ( ~ (sdtasdt0(v18, v19) = v20) |  ~ aScalar0(v19) |  ~ aScalar0(v18) |  ? [v21] :  ? [v22] : (smndt0(v19) = v22 & smndt0(v18) = v21 & sdtasdt0(v21, v22) = v20)) &  ! [v18] :  ! [v19] :  ! [v20] : ( ~ (sdtpldt0(v18, v19) = v20) |  ~ sdtlseqdt0(sz0z00, v19) |  ~ sdtlseqdt0(sz0z00, v18) |  ~ aScalar0(v19) |  ~ aScalar0(v18) | sdtlseqdt0(sz0z00, v20)) &  ! [v18] :  ! [v19] :  ! [v20] : ( ~ (sdtpldt0(v18, v19) = v20) |  ~ sdtlseqdt0(sz0z00, v19) |  ~ sdtlseqdt0(sz0z00, v18) |  ~ aScalar0(v19) |  ~ aScalar0(v18) |  ? [v21] : (sdtasdt0(v18, v19) = v21 & sdtlseqdt0(sz0z00, v21))) &  ! [v18] :  ! [v19] :  ! [v20] : ( ~ (sdtpldt0(v18, v19) = v20) |  ~ aScalar0(v19) |  ~ aScalar0(v18) | aScalar0(v20)) &  ! [v18] :  ! [v19] :  ! [v20] : ( ~ sdtlseqdt0(v19, v20) |  ~ sdtlseqdt0(v18, v19) |  ~ aScalar0(v20) |  ~ aScalar0(v19) |  ~ aScalar0(v18) | sdtlseqdt0(v18, v20)) &  ! [v18] :  ! [v19] : (v19 = v18 |  ~ (sdtpldt0(v18, sz0z00) = v19) |  ~ aScalar0(v18)) &  ! [v18] :  ! [v19] : (v19 = v18 |  ~ (sdtpldt0(sz0z00, v18) = v19) |  ~ aScalar0(v18)) &  ! [v18] :  ! [v19] : (v19 = v18 |  ~ sdtlseqdt0(v19, v18) |  ~ sdtlseqdt0(v18, v19) |  ~ aScalar0(v19) |  ~ aScalar0(v18)) &  ! [v18] :  ! [v19] : (v19 = sz0z00 |  ~ (sdtasdt0(v18, sz0z00) = v19) |  ~ aScalar0(v18)) &  ! [v18] :  ! [v19] : (v19 = sz0z00 |  ~ (sdtasdt0(sz0z00, v18) = v19) |  ~ aScalar0(v18)) &  ! [v18] :  ! [v19] : (v19 = sz00 |  ~ (aDimensionOf0(v18) = v19) |  ~ aVector0(v18) |  ? [v20] : (sziznziztdt0(v18) = v20 &  ! [v21] :  ! [v22] :  ! [v23] : ( ~ (sdtlbdtrb0(v20, v22) = v23) |  ~ (aDimensionOf0(v20) = v21) |  ~ aNaturalNumber0(v22) | sdtlbdtrb0(v18, v22) = v23) &  ! [v21] :  ! [v22] :  ! [v23] : ( ~ (sdtlbdtrb0(v18, v22) = v23) |  ~ (aDimensionOf0(v20) = v21) |  ~ aNaturalNumber0(v22) | sdtlbdtrb0(v20, v22) = v23) &  ! [v21] :  ! [v22] : (v21 = v20 |  ~ (aDimensionOf0(v21) = v22) |  ~ aVector0(v21) |  ? [v23] :  ? [v24] :  ? [v25] : (( ~ (v25 = v24) & sdtlbdtrb0(v21, v23) = v24 & sdtlbdtrb0(v18, v23) = v25 & aNaturalNumber0(v23)) | ( ~ (v23 = v19) & szszuzczcdt0(v22) = v23))) &  ! [v21] : ( ~ (aDimensionOf0(v20) = v21) | szszuzczcdt0(v21) = v19) &  ! [v21] : ( ~ (aDimensionOf0(v20) = v21) | aVector0(v20)))) &  ! [v18] :  ! [v19] : (v0 = sz0z00 |  ~ (smndt0(v18) = v19) |  ~ aScalar0(v18)) &  ! [v18] :  ! [v19] : (v0 = sz0z00 |  ~ (sdtasdt0(v18, sz0z00) = v19) |  ~ aScalar0(v18)) &  ! [v18] :  ! [v19] : (v0 = sz0z00 |  ~ (sdtasdt0(sz0z00, v18) = v19) |  ~ aScalar0(v18)) &  ! [v18] :  ! [v19] : (v0 = sz0z00 |  ~ (sdtpldt0(v18, sz0z00) = v19) |  ~ aScalar0(v18)) &  ! [v18] :  ! [v19] : (v0 = sz0z00 |  ~ (sdtpldt0(sz0z00, v18) = v19) |  ~ aScalar0(v18)) &  ! [v18] :  ! [v19] : ( ~ (sdtasasdt0(v18, v18) = v19) |  ~ aVector0(v18) | sdtlseqdt0(sz0z00, v19)) &  ! [v18] :  ! [v19] : ( ~ (sziznziztdt0(v18) = v19) |  ~ aVector0(v18) |  ? [v20] : (aDimensionOf0(v18) = v20 & (v20 = sz00 | ( ! [v21] :  ! [v22] :  ! [v23] : ( ~ (sdtlbdtrb0(v19, v22) = v23) |  ~ (aDimensionOf0(v19) = v21) |  ~ aNaturalNumber0(v22) | sdtlbdtrb0(v18, v22) = v23) &  ! [v21] :  ! [v22] :  ! [v23] : ( ~ (sdtlbdtrb0(v18, v22) = v23) |  ~ (aDimensionOf0(v19) = v21) |  ~ aNaturalNumber0(v22) | sdtlbdtrb0(v19, v22) = v23) &  ! [v21] :  ! [v22] : (v21 = v19 |  ~ (aDimensionOf0(v21) = v22) |  ~ aVector0(v21) |  ? [v23] :  ? [v24] :  ? [v25] : (( ~ (v25 = v24) & sdtlbdtrb0(v21, v23) = v24 & sdtlbdtrb0(v18, v23) = v25 & aNaturalNumber0(v23)) | ( ~ (v23 = v20) & szszuzczcdt0(v22) = v23))) &  ! [v21] : ( ~ (aDimensionOf0(v19) = v21) | szszuzczcdt0(v21) = v20) &  ! [v21] : ( ~ (aDimensionOf0(v19) = v21) | aVector0(v19)))))) &  ! [v18] :  ! [v19] : ( ~ (sdtlbdtrb0(xq, v18) = v19) |  ~ aNaturalNumber0(v18) | sdtlbdtrb0(xt, v18) = v19) &  ! [v18] :  ! [v19] : ( ~ (sdtlbdtrb0(xp, v18) = v19) |  ~ aNaturalNumber0(v18) | sdtlbdtrb0(xs, v18) = v19) &  ! [v18] :  ! [v19] : ( ~ (sdtlbdtrb0(xt, v18) = v19) |  ~ aNaturalNumber0(v18) | sdtlbdtrb0(xq, v18) = v19) &  ! [v18] :  ! [v19] : ( ~ (sdtlbdtrb0(xs, v18) = v19) |  ~ aNaturalNumber0(v18) | sdtlbdtrb0(xp, v18) = v19) &  ! [v18] :  ! [v19] : ( ~ (aDimensionOf0(v19) = sz00) |  ~ (aDimensionOf0(v18) = sz00) |  ~ aVector0(v19) |  ~ aVector0(v18) | sdtasasdt0(v18, v19) = sz0z00) &  ! [v18] :  ! [v19] : ( ~ (aDimensionOf0(v18) = v19) |  ~ aVector0(v18) | aNaturalNumber0(v19)) &  ! [v18] :  ! [v19] : ( ~ (smndt0(v18) = v19) |  ~ aScalar0(v18) | aScalar0(v19)) &  ! [v18] :  ! [v19] : ( ~ (smndt0(v18) = v19) |  ~ aScalar0(v18) | (smndt0(v19) = v18 & sdtasdt0(v18, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v18) = sz0z00 & sdtpldt0(v19, v18) = sz0z00 & sdtpldt0(v18, v19) = sz0z00 & sdtpldt0(v18, sz0z00) = v18 & sdtpldt0(sz0z00, v18) = v18)) &  ! [v18] :  ! [v19] : ( ~ (sdtasdt0(v18, v18) = v19) |  ~ aScalar0(v18) | sdtlseqdt0(sz0z00, v19)) &  ! [v18] :  ! [v19] : ( ~ (sdtasdt0(v18, sz0z00) = v19) |  ~ aScalar0(v18) |  ? [v20] : (smndt0(v20) = v18 & smndt0(v18) = v20 & sdtasdt0(sz0z00, v18) = sz0z00 & sdtpldt0(v20, v18) = sz0z00 & sdtpldt0(v18, v20) = sz0z00 & sdtpldt0(v18, sz0z00) = v18 & sdtpldt0(sz0z00, v18) = v18)) &  ! [v18] :  ! [v19] : ( ~ (sdtasdt0(sz0z00, v18) = v19) |  ~ aScalar0(v18) |  ? [v20] : (smndt0(v20) = v18 & smndt0(v18) = v20 & sdtasdt0(v18, sz0z00) = sz0z00 & sdtpldt0(v20, v18) = sz0z00 & sdtpldt0(v18, v20) = sz0z00 & sdtpldt0(v18, sz0z00) = v18 & sdtpldt0(sz0z00, v18) = v18)) &  ! [v18] :  ! [v19] : ( ~ (sdtpldt0(v18, sz0z00) = v19) |  ~ aScalar0(v18) |  ? [v20] : (smndt0(v20) = v18 & smndt0(v18) = v20 & sdtasdt0(v18, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v18) = sz0z00 & sdtpldt0(v20, v18) = sz0z00 & sdtpldt0(v18, v20) = sz0z00 & sdtpldt0(sz0z00, v18) = v18)) &  ! [v18] :  ! [v19] : ( ~ (sdtpldt0(sz0z00, v18) = v19) |  ~ aScalar0(v18) |  ? [v20] : (smndt0(v20) = v18 & smndt0(v18) = v20 & sdtasdt0(v18, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v18) = sz0z00 & sdtpldt0(v20, v18) = sz0z00 & sdtpldt0(v18, v20) = sz0z00 & sdtpldt0(v18, sz0z00) = v18)) &  ! [v18] :  ! [v19] : ( ~ (szszuzczcdt0(v18) = v19) |  ~ aNaturalNumber0(v18) | iLess0(v18, v19)) &  ! [v18] :  ! [v19] : ( ~ (szszuzczcdt0(v18) = v19) |  ~ aNaturalNumber0(v18) | aNaturalNumber0(v19)) &  ! [v18] :  ! [v19] : ( ~ aScalar0(v19) |  ~ aScalar0(v18) | sdtlseqdt0(v19, v18) | sdtlseqdt0(v18, v19)) &  ! [v18] : (v18 = sz00 |  ~ aNaturalNumber0(v18) |  ? [v19] : (szszuzczcdt0(v19) = v18 & aNaturalNumber0(v19))) &  ! [v18] : ( ~ (szszuzczcdt0(v18) = sz00) |  ~ aNaturalNumber0(v18)) &  ! [v18] : ( ~ aScalar0(v18) | sdtlseqdt0(v18, v18)))
% 11.85/3.35  | Instantiating (0) with all_0_0_0, all_0_1_1, all_0_2_2, all_0_3_3, all_0_4_4, all_0_5_5, all_0_6_6, all_0_7_7, all_0_8_8, all_0_9_9, all_0_10_10, all_0_11_11, all_0_12_12, all_0_13_13, all_0_14_14, all_0_15_15, all_0_16_16, all_0_17_17 yields:
% 11.85/3.35  | (1)  ~ (all_0_16_16 = sz00) & sdtasasdt0(xq, xq) = xD & sdtasasdt0(xp, xq) = xE & sdtasasdt0(xp, xp) = xC & sdtasasdt0(xt, xt) = all_0_1_1 & sdtasasdt0(xs, xt) = all_0_4_4 & sdtasasdt0(xs, xs) = all_0_2_2 & sziznziztdt0(xt) = xq & sziznziztdt0(xs) = xp & sdtlbdtrb0(xt, all_0_16_16) = xB & sdtlbdtrb0(xs, all_0_16_16) = xA & aDimensionOf0(xq) = all_0_14_14 & aDimensionOf0(xp) = all_0_15_15 & aDimensionOf0(xt) = all_0_16_16 & aDimensionOf0(xs) = all_0_16_16 & smndt0(sz0z00) = all_0_17_17 & sdtasdt0(all_0_2_2, all_0_1_1) = all_0_0_0 & sdtasdt0(all_0_4_4, all_0_4_4) = all_0_3_3 & sdtasdt0(all_0_7_7, all_0_6_6) = all_0_5_5 & sdtasdt0(all_0_9_9, all_0_9_9) = all_0_8_8 & sdtasdt0(xR, xS) = xN & sdtasdt0(xF, xD) = xS & sdtasdt0(xE, xH) = xP & sdtasdt0(xE, xE) = all_0_13_13 & sdtasdt0(xC, xG) = xR & sdtasdt0(xC, xD) = all_0_12_12 & sdtasdt0(xB, xB) = xG & sdtasdt0(xA, xB) = xH & sdtasdt0(xA, xA) = xF & sdtpldt0(xP, xP) = all_0_11_11 & sdtpldt0(xR, xS) = all_0_10_10 & sdtpldt0(xE, xH) = all_0_9_9 & sdtpldt0(xD, xG) = all_0_6_6 & sdtpldt0(xC, xF) = all_0_7_7 & szszuzczcdt0(all_0_14_14) = all_0_16_16 & szszuzczcdt0(all_0_15_15) = all_0_16_16 & aVector0(xq) & aVector0(xp) & aVector0(xt) & aVector0(xs) & sdtlseqdt0(all_0_8_8, all_0_5_5) & sdtlseqdt0(all_0_11_11, all_0_10_10) & sdtlseqdt0(all_0_13_13, all_0_12_12) & aScalar0(xN) & aScalar0(xS) & aScalar0(xP) & aScalar0(xR) & aScalar0(xH) & aScalar0(xG) & aScalar0(xF) & aScalar0(xE) & aScalar0(xD) & aScalar0(xC) & aScalar0(xB) & aScalar0(xA) & aScalar0(sz0z00) & aNaturalNumber0(sz00) &  ~ sdtlseqdt0(all_0_3_3, all_0_0_0) &  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] :  ! [v5] :  ! [v6] :  ! [v7] :  ! [v8] :  ! [v9] :  ! [v10] : ( ~ (sdtasdt0(v1, v3) = v8) |  ~ (sdtasdt0(v1, v2) = v7) |  ~ (sdtasdt0(v0, v3) = v5) |  ~ (sdtasdt0(v0, v2) = v4) |  ~ (sdtpldt0(v7, v8) = v9) |  ~ (sdtpldt0(v6, v9) = v10) |  ~ (sdtpldt0(v4, v5) = v6) |  ~ aScalar0(v3) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v11] :  ? [v12] : (sdtasdt0(v11, v12) = v10 & sdtpldt0(v2, v3) = v12 & sdtpldt0(v0, v1) = v11)) &  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] :  ! [v5] :  ! [v6] :  ! [v7] :  ! [v8] :  ! [v9] : (v2 = sz00 |  ~ (sdtasasdt0(v3, v4) = v5) |  ~ (sziznziztdt0(v1) = v4) |  ~ (sziznziztdt0(v0) = v3) |  ~ (sdtlbdtrb0(v1, v2) = v7) |  ~ (sdtlbdtrb0(v0, v2) = v6) |  ~ (aDimensionOf0(v1) = v2) |  ~ (aDimensionOf0(v0) = v2) |  ~ (sdtasdt0(v6, v7) = v8) |  ~ (sdtpldt0(v5, v8) = v9) |  ~ aVector0(v1) |  ~ aVector0(v0) | sdtasasdt0(v0, v1) = v9) &  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] :  ! [v5] :  ! [v6] : ( ~ (sdtasdt0(v4, v5) = v6) |  ~ (sdtpldt0(v2, v3) = v5) |  ~ (sdtpldt0(v0, v1) = v4) |  ~ aScalar0(v3) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v7] :  ? [v8] :  ? [v9] :  ? [v10] :  ? [v11] :  ? [v12] : (sdtasdt0(v1, v3) = v11 & sdtasdt0(v1, v2) = v10 & sdtasdt0(v0, v3) = v8 & sdtasdt0(v0, v2) = v7 & sdtpldt0(v10, v11) = v12 & sdtpldt0(v9, v12) = v6 & sdtpldt0(v7, v8) = v9)) &  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] :  ! [v5] : ( ~ (sdtasdt0(v1, v3) = v5) |  ~ (sdtasdt0(v0, v2) = v4) |  ~ sdtlseqdt0(v2, v3) |  ~ sdtlseqdt0(v0, v1) |  ~ sdtlseqdt0(sz0z00, v2) |  ~ aScalar0(v3) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) | sdtlseqdt0(v4, v5)) &  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] :  ! [v5] : ( ~ (sdtasdt0(v1, v2) = v4) |  ~ (sdtasdt0(v0, v2) = v3) |  ~ (sdtpldt0(v3, v4) = v5) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v6] :  ? [v7] :  ? [v8] :  ? [v9] : (sdtasdt0(v9, v2) = v5 & sdtasdt0(v0, v6) = v7 & sdtasdt0(v0, v1) = v8 & sdtpldt0(v8, v3) = v7 & sdtpldt0(v1, v2) = v6 & sdtpldt0(v0, v1) = v9)) &  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] :  ! [v5] : ( ~ (sdtasdt0(v0, v2) = v4) |  ~ (sdtasdt0(v0, v1) = v3) |  ~ (sdtpldt0(v3, v4) = v5) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v6] :  ? [v7] :  ? [v8] :  ? [v9] : (sdtasdt0(v7, v2) = v8 & sdtasdt0(v1, v2) = v9 & sdtasdt0(v0, v6) = v5 & sdtpldt0(v4, v9) = v8 & sdtpldt0(v1, v2) = v6 & sdtpldt0(v0, v1) = v7)) &  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] :  ! [v5] : ( ~ (sdtpldt0(v1, v3) = v5) |  ~ (sdtpldt0(v0, v2) = v4) |  ~ sdtlseqdt0(v2, v3) |  ~ sdtlseqdt0(v0, v1) |  ~ aScalar0(v3) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) | sdtlseqdt0(v4, v5)) &  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] : ( ~ (sdtasasdt0(v1, v1) = v3) |  ~ (sdtasasdt0(v0, v0) = v2) |  ~ (sdtasdt0(v2, v3) = v4) |  ~ aVector0(v1) |  ~ aVector0(v0) |  ? [v5] :  ? [v6] :  ? [v7] :  ? [v8] : (sdtasasdt0(v0, v1) = v7 & aDimensionOf0(v1) = v6 & aDimensionOf0(v0) = v5 & sdtasdt0(v7, v7) = v8 & ( ~ (v6 = v5) |  ~ iLess0(v5, all_0_16_16) | sdtlseqdt0(v8, v4)))) &  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] : ( ~ (smndt0(v1) = v3) |  ~ (smndt0(v0) = v2) |  ~ (sdtasdt0(v2, v3) = v4) |  ~ aScalar0(v1) |  ~ aScalar0(v0) | sdtasdt0(v0, v1) = v4) &  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] : ( ~ (sdtasdt0(v3, v2) = v4) |  ~ (sdtasdt0(v0, v1) = v3) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v5] :  ? [v6] :  ? [v7] :  ? [v8] : (sdtasdt0(v1, v2) = v8 & sdtasdt0(v1, v0) = v3 & sdtasdt0(v0, v8) = v4 & sdtpldt0(v5, v2) = v6 & sdtpldt0(v1, v2) = v7 & sdtpldt0(v1, v0) = v5 & sdtpldt0(v0, v7) = v6 & sdtpldt0(v0, v1) = v5)) &  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] : ( ~ (sdtasdt0(v3, v2) = v4) |  ~ (sdtpldt0(v0, v1) = v3) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v5] :  ? [v6] :  ? [v7] :  ? [v8] :  ? [v9] : (sdtasdt0(v1, v2) = v9 & sdtasdt0(v0, v5) = v6 & sdtasdt0(v0, v2) = v8 & sdtasdt0(v0, v1) = v7 & sdtpldt0(v8, v9) = v4 & sdtpldt0(v7, v8) = v6 & sdtpldt0(v1, v2) = v5)) &  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] : ( ~ (sdtasdt0(v1, v2) = v3) |  ~ (sdtasdt0(v0, v3) = v4) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v5] :  ? [v6] :  ? [v7] :  ? [v8] : (sdtasdt0(v8, v2) = v4 & sdtasdt0(v1, v0) = v8 & sdtasdt0(v0, v1) = v8 & sdtpldt0(v5, v2) = v6 & sdtpldt0(v1, v2) = v7 & sdtpldt0(v1, v0) = v5 & sdtpldt0(v0, v7) = v6 & sdtpldt0(v0, v1) = v5)) &  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] : ( ~ (sdtasdt0(v0, v3) = v4) |  ~ (sdtpldt0(v1, v2) = v3) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v5] :  ? [v6] :  ? [v7] :  ? [v8] :  ? [v9] : (sdtasdt0(v7, v2) = v8 & sdtasdt0(v1, v2) = v9 & sdtasdt0(v0, v2) = v6 & sdtasdt0(v0, v1) = v5 & sdtpldt0(v6, v9) = v8 & sdtpldt0(v5, v6) = v4 & sdtpldt0(v0, v1) = v7)) &  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] : ( ~ (sdtpldt0(v3, v2) = v4) |  ~ (sdtpldt0(v0, v1) = v3) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v5] :  ? [v6] :  ? [v7] :  ? [v8] : (sdtasdt0(v6, v2) = v7 & sdtasdt0(v1, v2) = v8 & sdtasdt0(v1, v0) = v6 & sdtasdt0(v0, v8) = v7 & sdtasdt0(v0, v1) = v6 & sdtpldt0(v1, v2) = v5 & sdtpldt0(v1, v0) = v3 & sdtpldt0(v0, v5) = v4)) &  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] : ( ~ (sdtpldt0(v1, v2) = v3) |  ~ (sdtpldt0(v0, v3) = v4) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v5] :  ? [v6] :  ? [v7] :  ? [v8] : (sdtasdt0(v6, v2) = v7 & sdtasdt0(v1, v2) = v8 & sdtasdt0(v1, v0) = v6 & sdtasdt0(v0, v8) = v7 & sdtasdt0(v0, v1) = v6 & sdtpldt0(v5, v2) = v4 & sdtpldt0(v1, v0) = v5 & sdtpldt0(v0, v1) = v5)) &  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] : (v2 = sz00 |  ~ (sziznziztdt0(v0) = v3) |  ~ (aDimensionOf0(v1) = v2) |  ~ aVector0(v1) |  ~ aVector0(v0) |  ? [v4] :  ? [v5] :  ? [v6] :  ? [v7] : (sziznziztdt0(v1) = v6 & aDimensionOf0(v6) = v7 & aDimensionOf0(v3) = v5 & aDimensionOf0(v0) = v4 & ( ~ (v4 = v2) | v7 = v5))) &  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] : (v1 = v0 |  ~ (sdtasasdt0(v3, v2) = v1) |  ~ (sdtasasdt0(v3, v2) = v0)) &  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] : (v1 = v0 |  ~ (sdtlbdtrb0(v3, v2) = v1) |  ~ (sdtlbdtrb0(v3, v2) = v0)) &  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] : (v1 = v0 |  ~ (sdtasdt0(v3, v2) = v1) |  ~ (sdtasdt0(v3, v2) = v0)) &  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] : (v1 = v0 |  ~ (sdtpldt0(v3, v2) = v1) |  ~ (sdtpldt0(v3, v2) = v0)) &  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] : ( ~ (sdtasasdt0(v0, v1) = v2) |  ~ (sdtasdt0(v2, v2) = v3) |  ~ aVector0(v1) |  ~ aVector0(v0) |  ? [v4] :  ? [v5] :  ? [v6] :  ? [v7] :  ? [v8] : (sdtasasdt0(v1, v1) = v7 & sdtasasdt0(v0, v0) = v6 & aDimensionOf0(v1) = v5 & aDimensionOf0(v0) = v4 & sdtasdt0(v6, v7) = v8 & ( ~ (v5 = v4) |  ~ iLess0(v4, all_0_16_16) | sdtlseqdt0(v3, v8)))) &  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] : ( ~ (sziznziztdt0(v1) = v3) |  ~ (sziznziztdt0(v0) = v2) |  ~ aVector0(v1) |  ~ aVector0(v0) |  ? [v4] :  ? [v5] :  ? [v6] :  ? [v7] : (aDimensionOf0(v3) = v7 & aDimensionOf0(v2) = v6 & aDimensionOf0(v1) = v5 & aDimensionOf0(v0) = v4 & ( ~ (v5 = v4) | v7 = v6 | v4 = sz00))) &  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] : ( ~ (sziznziztdt0(v1) = v3) |  ~ (aDimensionOf0(v0) = v2) |  ~ aVector0(v1) |  ~ aVector0(v0) |  ? [v4] :  ? [v5] :  ? [v6] :  ? [v7] : (sziznziztdt0(v0) = v5 & aDimensionOf0(v5) = v6 & aDimensionOf0(v3) = v7 & aDimensionOf0(v1) = v4 & ( ~ (v4 = v2) | v7 = v6 | v2 = sz00))) &  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] : ( ~ (smndt0(v1) = v2) |  ~ (sdtasdt0(v0, v2) = v3) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v4] :  ? [v5] : (smndt0(v4) = v3 & smndt0(v0) = v5 & sdtasdt0(v5, v1) = v3 & sdtasdt0(v0, v1) = v4)) &  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] : ( ~ (smndt0(v0) = v2) |  ~ (sdtasdt0(v2, v1) = v3) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v4] :  ? [v5] : (smndt0(v5) = v3 & smndt0(v1) = v4 & sdtasdt0(v0, v4) = v3 & sdtasdt0(v0, v1) = v5)) &  ! [v0] :  ! [v1] :  ! [v2] : (v2 = sz0z00 |  ~ (sdtasasdt0(v0, v1) = v2) |  ~ aVector0(v1) |  ~ aVector0(v0) |  ? [v3] :  ? [v4] : (aDimensionOf0(v1) = v4 & aDimensionOf0(v0) = v3 & ( ~ (v4 = sz00) |  ~ (v3 = sz00)))) &  ! [v0] :  ! [v1] :  ! [v2] : (v2 = sz0z00 |  ~ (smndt0(v0) = v1) |  ~ (sdtpldt0(v1, v0) = v2) |  ~ aScalar0(v0)) &  ! [v0] :  ! [v1] :  ! [v2] : (v2 = sz0z00 |  ~ (smndt0(v0) = v1) |  ~ (sdtpldt0(v0, v1) = v2) |  ~ aScalar0(v0)) &  ! [v0] :  ! [v1] :  ! [v2] : (v2 = sz00 |  ~ (aDimensionOf0(v1) = v2) |  ~ (aDimensionOf0(v0) = v2) |  ~ aVector0(v1) |  ~ aVector0(v0) |  ? [v3] :  ? [v4] :  ? [v5] :  ? [v6] :  ? [v7] :  ? [v8] :  ? [v9] : (sdtasasdt0(v4, v5) = v6 & sdtasasdt0(v0, v1) = v3 & sziznziztdt0(v1) = v5 & sziznziztdt0(v0) = v4 & sdtlbdtrb0(v1, v2) = v8 & sdtlbdtrb0(v0, v2) = v7 & sdtasdt0(v7, v8) = v9 & sdtpldt0(v6, v9) = v3)) &  ! [v0] :  ! [v1] :  ! [v2] : (v2 = sz00 |  ~ (aDimensionOf0(v1) = v2) |  ~ (aDimensionOf0(v0) = v2) |  ~ aVector0(v1) |  ~ aVector0(v0) |  ? [v3] :  ? [v4] :  ? [v5] : (sziznziztdt0(v1) = v5 & sziznziztdt0(v0) = v3 & aDimensionOf0(v5) = v4 & aDimensionOf0(v3) = v4)) &  ! [v0] :  ! [v1] :  ! [v2] : (v1 = v0 |  ~ (sziznziztdt0(v2) = v1) |  ~ (sziznziztdt0(v2) = v0)) &  ! [v0] :  ! [v1] :  ! [v2] : (v1 = v0 |  ~ (aDimensionOf0(v2) = v1) |  ~ (aDimensionOf0(v2) = v0)) &  ! [v0] :  ! [v1] :  ! [v2] : (v1 = v0 |  ~ (smndt0(v2) = v1) |  ~ (smndt0(v2) = v0)) &  ! [v0] :  ! [v1] :  ! [v2] : (v1 = v0 |  ~ (sdtasdt0(v1, v1) = v2) |  ~ (sdtasdt0(v0, v0) = v2) |  ~ sdtlseqdt0(sz0z00, v1) |  ~ sdtlseqdt0(sz0z00, v0) |  ~ aScalar0(v1) |  ~ aScalar0(v0)) &  ! [v0] :  ! [v1] :  ! [v2] : (v1 = v0 |  ~ (szszuzczcdt0(v2) = v1) |  ~ (szszuzczcdt0(v2) = v0)) &  ! [v0] :  ! [v1] :  ! [v2] : (v1 = v0 |  ~ (szszuzczcdt0(v1) = v2) |  ~ (szszuzczcdt0(v0) = v2) |  ~ aNaturalNumber0(v1) |  ~ aNaturalNumber0(v0)) &  ! [v0] :  ! [v1] :  ! [v2] : (all_0_17_17 = sz0z00 |  ~ (smndt0(v0) = v1) |  ~ (sdtpldt0(v1, v0) = v2) |  ~ aScalar0(v0)) &  ! [v0] :  ! [v1] :  ! [v2] : (all_0_17_17 = sz0z00 |  ~ (smndt0(v0) = v1) |  ~ (sdtpldt0(v0, v1) = v2) |  ~ aScalar0(v0)) &  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (sdtasasdt0(v0, v1) = v2) |  ~ aVector0(v1) |  ~ aVector0(v0) | aScalar0(v2) |  ? [v3] :  ? [v4] : ( ~ (v4 = v3) & aDimensionOf0(v1) = v4 & aDimensionOf0(v0) = v3)) &  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (sdtasasdt0(v0, v1) = v2) |  ~ aVector0(v1) |  ~ aVector0(v0) |  ? [v3] :  ? [v4] :  ? [v5] :  ? [v6] :  ? [v7] :  ? [v8] :  ? [v9] :  ? [v10] :  ? [v11] : (sdtasasdt0(v5, v6) = v7 & sziznziztdt0(v1) = v6 & sziznziztdt0(v0) = v5 & sdtlbdtrb0(v1, v4) = v9 & sdtlbdtrb0(v0, v3) = v8 & aDimensionOf0(v1) = v4 & aDimensionOf0(v0) = v3 & sdtasdt0(v8, v9) = v10 & sdtpldt0(v7, v10) = v11 & ( ~ (v4 = v3) | v11 = v2 | v3 = sz00))) &  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (sdtlbdtrb0(v0, v1) = v2) |  ~ aVector0(v0) |  ~ aNaturalNumber0(v1) | aScalar0(v2)) &  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (aDimensionOf0(v1) = v2) |  ~ (aDimensionOf0(v0) = v2) |  ~ aVector0(v1) |  ~ aVector0(v0) |  ~ iLess0(v2, all_0_16_16) |  ? [v3] :  ? [v4] :  ? [v5] :  ? [v6] :  ? [v7] : (sdtasasdt0(v1, v1) = v6 & sdtasasdt0(v0, v1) = v3 & sdtasasdt0(v0, v0) = v5 & sdtasdt0(v5, v6) = v7 & sdtasdt0(v3, v3) = v4 & sdtlseqdt0(v4, v7))) &  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (aDimensionOf0(v1) = v2) |  ~ (aDimensionOf0(v0) = v2) |  ~ aVector0(v1) |  ~ aVector0(v0) |  ? [v3] : (sdtasasdt0(v0, v1) = v3 & aScalar0(v3))) &  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (smndt0(v0) = v1) |  ~ (sdtpldt0(v1, v0) = v2) |  ~ aScalar0(v0) | (smndt0(v1) = v0 & sdtasdt0(v0, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v0) = sz0z00 & sdtpldt0(v0, v1) = sz0z00 & sdtpldt0(v0, sz0z00) = v0 & sdtpldt0(sz0z00, v0) = v0)) &  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (smndt0(v0) = v1) |  ~ (sdtpldt0(v0, v1) = v2) |  ~ aScalar0(v0) | (smndt0(v1) = v0 & sdtasdt0(v0, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v0) = sz0z00 & sdtpldt0(v1, v0) = sz0z00 & sdtpldt0(v0, sz0z00) = v0 & sdtpldt0(sz0z00, v0) = v0)) &  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (sdtasdt0(v0, v1) = v2) |  ~ sdtlseqdt0(sz0z00, v1) |  ~ sdtlseqdt0(sz0z00, v0) |  ~ aScalar0(v1) |  ~ aScalar0(v0) | sdtlseqdt0(sz0z00, v2)) &  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (sdtasdt0(v0, v1) = v2) |  ~ sdtlseqdt0(sz0z00, v1) |  ~ sdtlseqdt0(sz0z00, v0) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v3] : (sdtpldt0(v0, v1) = v3 & sdtlseqdt0(sz0z00, v3))) &  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (sdtasdt0(v0, v1) = v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) | aScalar0(v2)) &  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (sdtasdt0(v0, v1) = v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v3] :  ? [v4] :  ? [v5] : (smndt0(v2) = v4 & smndt0(v1) = v3 & smndt0(v0) = v5 & sdtasdt0(v5, v1) = v4 & sdtasdt0(v0, v3) = v4)) &  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (sdtasdt0(v0, v1) = v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v3] :  ? [v4] : (smndt0(v1) = v4 & smndt0(v0) = v3 & sdtasdt0(v3, v4) = v2)) &  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (sdtpldt0(v0, v1) = v2) |  ~ sdtlseqdt0(sz0z00, v1) |  ~ sdtlseqdt0(sz0z00, v0) |  ~ aScalar0(v1) |  ~ aScalar0(v0) | sdtlseqdt0(sz0z00, v2)) &  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (sdtpldt0(v0, v1) = v2) |  ~ sdtlseqdt0(sz0z00, v1) |  ~ sdtlseqdt0(sz0z00, v0) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v3] : (sdtasdt0(v0, v1) = v3 & sdtlseqdt0(sz0z00, v3))) &  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (sdtpldt0(v0, v1) = v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) | aScalar0(v2)) &  ! [v0] :  ! [v1] :  ! [v2] : ( ~ sdtlseqdt0(v1, v2) |  ~ sdtlseqdt0(v0, v1) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) | sdtlseqdt0(v0, v2)) &  ! [v0] :  ! [v1] : (v1 = v0 |  ~ (sdtpldt0(v0, sz0z00) = v1) |  ~ aScalar0(v0)) &  ! [v0] :  ! [v1] : (v1 = v0 |  ~ (sdtpldt0(sz0z00, v0) = v1) |  ~ aScalar0(v0)) &  ! [v0] :  ! [v1] : (v1 = v0 |  ~ sdtlseqdt0(v1, v0) |  ~ sdtlseqdt0(v0, v1) |  ~ aScalar0(v1) |  ~ aScalar0(v0)) &  ! [v0] :  ! [v1] : (v1 = sz0z00 |  ~ (sdtasdt0(v0, sz0z00) = v1) |  ~ aScalar0(v0)) &  ! [v0] :  ! [v1] : (v1 = sz0z00 |  ~ (sdtasdt0(sz0z00, v0) = v1) |  ~ aScalar0(v0)) &  ! [v0] :  ! [v1] : (v1 = sz00 |  ~ (aDimensionOf0(v0) = v1) |  ~ aVector0(v0) |  ? [v2] : (sziznziztdt0(v0) = v2 &  ! [v3] :  ! [v4] :  ! [v5] : ( ~ (sdtlbdtrb0(v2, v4) = v5) |  ~ (aDimensionOf0(v2) = v3) |  ~ aNaturalNumber0(v4) | sdtlbdtrb0(v0, v4) = v5) &  ! [v3] :  ! [v4] :  ! [v5] : ( ~ (sdtlbdtrb0(v0, v4) = v5) |  ~ (aDimensionOf0(v2) = v3) |  ~ aNaturalNumber0(v4) | sdtlbdtrb0(v2, v4) = v5) &  ! [v3] :  ! [v4] : (v3 = v2 |  ~ (aDimensionOf0(v3) = v4) |  ~ aVector0(v3) |  ? [v5] :  ? [v6] :  ? [v7] : (( ~ (v7 = v6) & sdtlbdtrb0(v3, v5) = v6 & sdtlbdtrb0(v0, v5) = v7 & aNaturalNumber0(v5)) | ( ~ (v5 = v1) & szszuzczcdt0(v4) = v5))) &  ! [v3] : ( ~ (aDimensionOf0(v2) = v3) | szszuzczcdt0(v3) = v1) &  ! [v3] : ( ~ (aDimensionOf0(v2) = v3) | aVector0(v2)))) &  ! [v0] :  ! [v1] : (all_0_17_17 = sz0z00 |  ~ (smndt0(v0) = v1) |  ~ aScalar0(v0)) &  ! [v0] :  ! [v1] : (all_0_17_17 = sz0z00 |  ~ (sdtasdt0(v0, sz0z00) = v1) |  ~ aScalar0(v0)) &  ! [v0] :  ! [v1] : (all_0_17_17 = sz0z00 |  ~ (sdtasdt0(sz0z00, v0) = v1) |  ~ aScalar0(v0)) &  ! [v0] :  ! [v1] : (all_0_17_17 = sz0z00 |  ~ (sdtpldt0(v0, sz0z00) = v1) |  ~ aScalar0(v0)) &  ! [v0] :  ! [v1] : (all_0_17_17 = sz0z00 |  ~ (sdtpldt0(sz0z00, v0) = v1) |  ~ aScalar0(v0)) &  ! [v0] :  ! [v1] : ( ~ (sdtasasdt0(v0, v0) = v1) |  ~ aVector0(v0) | sdtlseqdt0(sz0z00, v1)) &  ! [v0] :  ! [v1] : ( ~ (sziznziztdt0(v0) = v1) |  ~ aVector0(v0) |  ? [v2] : (aDimensionOf0(v0) = v2 & (v2 = sz00 | ( ! [v3] :  ! [v4] :  ! [v5] : ( ~ (sdtlbdtrb0(v1, v4) = v5) |  ~ (aDimensionOf0(v1) = v3) |  ~ aNaturalNumber0(v4) | sdtlbdtrb0(v0, v4) = v5) &  ! [v3] :  ! [v4] :  ! [v5] : ( ~ (sdtlbdtrb0(v0, v4) = v5) |  ~ (aDimensionOf0(v1) = v3) |  ~ aNaturalNumber0(v4) | sdtlbdtrb0(v1, v4) = v5) &  ! [v3] :  ! [v4] : (v3 = v1 |  ~ (aDimensionOf0(v3) = v4) |  ~ aVector0(v3) |  ? [v5] :  ? [v6] :  ? [v7] : (( ~ (v7 = v6) & sdtlbdtrb0(v3, v5) = v6 & sdtlbdtrb0(v0, v5) = v7 & aNaturalNumber0(v5)) | ( ~ (v5 = v2) & szszuzczcdt0(v4) = v5))) &  ! [v3] : ( ~ (aDimensionOf0(v1) = v3) | szszuzczcdt0(v3) = v2) &  ! [v3] : ( ~ (aDimensionOf0(v1) = v3) | aVector0(v1)))))) &  ! [v0] :  ! [v1] : ( ~ (sdtlbdtrb0(xq, v0) = v1) |  ~ aNaturalNumber0(v0) | sdtlbdtrb0(xt, v0) = v1) &  ! [v0] :  ! [v1] : ( ~ (sdtlbdtrb0(xp, v0) = v1) |  ~ aNaturalNumber0(v0) | sdtlbdtrb0(xs, v0) = v1) &  ! [v0] :  ! [v1] : ( ~ (sdtlbdtrb0(xt, v0) = v1) |  ~ aNaturalNumber0(v0) | sdtlbdtrb0(xq, v0) = v1) &  ! [v0] :  ! [v1] : ( ~ (sdtlbdtrb0(xs, v0) = v1) |  ~ aNaturalNumber0(v0) | sdtlbdtrb0(xp, v0) = v1) &  ! [v0] :  ! [v1] : ( ~ (aDimensionOf0(v1) = sz00) |  ~ (aDimensionOf0(v0) = sz00) |  ~ aVector0(v1) |  ~ aVector0(v0) | sdtasasdt0(v0, v1) = sz0z00) &  ! [v0] :  ! [v1] : ( ~ (aDimensionOf0(v0) = v1) |  ~ aVector0(v0) | aNaturalNumber0(v1)) &  ! [v0] :  ! [v1] : ( ~ (smndt0(v0) = v1) |  ~ aScalar0(v0) | aScalar0(v1)) &  ! [v0] :  ! [v1] : ( ~ (smndt0(v0) = v1) |  ~ aScalar0(v0) | (smndt0(v1) = v0 & sdtasdt0(v0, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v0) = sz0z00 & sdtpldt0(v1, v0) = sz0z00 & sdtpldt0(v0, v1) = sz0z00 & sdtpldt0(v0, sz0z00) = v0 & sdtpldt0(sz0z00, v0) = v0)) &  ! [v0] :  ! [v1] : ( ~ (sdtasdt0(v0, v0) = v1) |  ~ aScalar0(v0) | sdtlseqdt0(sz0z00, v1)) &  ! [v0] :  ! [v1] : ( ~ (sdtasdt0(v0, sz0z00) = v1) |  ~ aScalar0(v0) |  ? [v2] : (smndt0(v2) = v0 & smndt0(v0) = v2 & sdtasdt0(sz0z00, v0) = sz0z00 & sdtpldt0(v2, v0) = sz0z00 & sdtpldt0(v0, v2) = sz0z00 & sdtpldt0(v0, sz0z00) = v0 & sdtpldt0(sz0z00, v0) = v0)) &  ! [v0] :  ! [v1] : ( ~ (sdtasdt0(sz0z00, v0) = v1) |  ~ aScalar0(v0) |  ? [v2] : (smndt0(v2) = v0 & smndt0(v0) = v2 & sdtasdt0(v0, sz0z00) = sz0z00 & sdtpldt0(v2, v0) = sz0z00 & sdtpldt0(v0, v2) = sz0z00 & sdtpldt0(v0, sz0z00) = v0 & sdtpldt0(sz0z00, v0) = v0)) &  ! [v0] :  ! [v1] : ( ~ (sdtpldt0(v0, sz0z00) = v1) |  ~ aScalar0(v0) |  ? [v2] : (smndt0(v2) = v0 & smndt0(v0) = v2 & sdtasdt0(v0, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v0) = sz0z00 & sdtpldt0(v2, v0) = sz0z00 & sdtpldt0(v0, v2) = sz0z00 & sdtpldt0(sz0z00, v0) = v0)) &  ! [v0] :  ! [v1] : ( ~ (sdtpldt0(sz0z00, v0) = v1) |  ~ aScalar0(v0) |  ? [v2] : (smndt0(v2) = v0 & smndt0(v0) = v2 & sdtasdt0(v0, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v0) = sz0z00 & sdtpldt0(v2, v0) = sz0z00 & sdtpldt0(v0, v2) = sz0z00 & sdtpldt0(v0, sz0z00) = v0)) &  ! [v0] :  ! [v1] : ( ~ (szszuzczcdt0(v0) = v1) |  ~ aNaturalNumber0(v0) | iLess0(v0, v1)) &  ! [v0] :  ! [v1] : ( ~ (szszuzczcdt0(v0) = v1) |  ~ aNaturalNumber0(v0) | aNaturalNumber0(v1)) &  ! [v0] :  ! [v1] : ( ~ aScalar0(v1) |  ~ aScalar0(v0) | sdtlseqdt0(v1, v0) | sdtlseqdt0(v0, v1)) &  ! [v0] : (v0 = sz00 |  ~ aNaturalNumber0(v0) |  ? [v1] : (szszuzczcdt0(v1) = v0 & aNaturalNumber0(v1))) &  ! [v0] : ( ~ (szszuzczcdt0(v0) = sz00) |  ~ aNaturalNumber0(v0)) &  ! [v0] : ( ~ aScalar0(v0) | sdtlseqdt0(v0, v0))
% 12.17/3.38  |
% 12.17/3.38  | Applying alpha-rule on (1) yields:
% 12.17/3.38  | (2)  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] :  ! [v5] : ( ~ (sdtasdt0(v0, v2) = v4) |  ~ (sdtasdt0(v0, v1) = v3) |  ~ (sdtpldt0(v3, v4) = v5) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v6] :  ? [v7] :  ? [v8] :  ? [v9] : (sdtasdt0(v7, v2) = v8 & sdtasdt0(v1, v2) = v9 & sdtasdt0(v0, v6) = v5 & sdtpldt0(v4, v9) = v8 & sdtpldt0(v1, v2) = v6 & sdtpldt0(v0, v1) = v7))
% 12.17/3.38  | (3) aVector0(xq)
% 12.17/3.38  | (4)  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (sdtlbdtrb0(v0, v1) = v2) |  ~ aVector0(v0) |  ~ aNaturalNumber0(v1) | aScalar0(v2))
% 12.17/3.38  | (5) sdtpldt0(xE, xH) = all_0_9_9
% 12.17/3.38  | (6)  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] : ( ~ (sdtasdt0(v3, v2) = v4) |  ~ (sdtpldt0(v0, v1) = v3) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v5] :  ? [v6] :  ? [v7] :  ? [v8] :  ? [v9] : (sdtasdt0(v1, v2) = v9 & sdtasdt0(v0, v5) = v6 & sdtasdt0(v0, v2) = v8 & sdtasdt0(v0, v1) = v7 & sdtpldt0(v8, v9) = v4 & sdtpldt0(v7, v8) = v6 & sdtpldt0(v1, v2) = v5))
% 12.17/3.38  | (7)  ! [v0] :  ! [v1] : (all_0_17_17 = sz0z00 |  ~ (sdtpldt0(sz0z00, v0) = v1) |  ~ aScalar0(v0))
% 12.17/3.39  | (8) smndt0(sz0z00) = all_0_17_17
% 12.17/3.39  | (9) aDimensionOf0(xp) = all_0_15_15
% 12.17/3.39  | (10) sdtasdt0(all_0_9_9, all_0_9_9) = all_0_8_8
% 12.17/3.39  | (11)  ! [v0] :  ! [v1] : ( ~ (sdtpldt0(sz0z00, v0) = v1) |  ~ aScalar0(v0) |  ? [v2] : (smndt0(v2) = v0 & smndt0(v0) = v2 & sdtasdt0(v0, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v0) = sz0z00 & sdtpldt0(v2, v0) = sz0z00 & sdtpldt0(v0, v2) = sz0z00 & sdtpldt0(v0, sz0z00) = v0))
% 12.17/3.39  | (12) sdtasdt0(xC, xD) = all_0_12_12
% 12.17/3.39  | (13)  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] : ( ~ (sdtpldt0(v3, v2) = v4) |  ~ (sdtpldt0(v0, v1) = v3) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v5] :  ? [v6] :  ? [v7] :  ? [v8] : (sdtasdt0(v6, v2) = v7 & sdtasdt0(v1, v2) = v8 & sdtasdt0(v1, v0) = v6 & sdtasdt0(v0, v8) = v7 & sdtasdt0(v0, v1) = v6 & sdtpldt0(v1, v2) = v5 & sdtpldt0(v1, v0) = v3 & sdtpldt0(v0, v5) = v4))
% 12.17/3.39  | (14) aScalar0(xH)
% 12.17/3.39  | (15) sdtpldt0(xP, xP) = all_0_11_11
% 12.17/3.39  | (16)  ! [v0] :  ! [v1] : ( ~ (sdtlbdtrb0(xp, v0) = v1) |  ~ aNaturalNumber0(v0) | sdtlbdtrb0(xs, v0) = v1)
% 12.17/3.39  | (17) aDimensionOf0(xt) = all_0_16_16
% 12.17/3.39  | (18)  ! [v0] :  ! [v1] : ( ~ (sdtlbdtrb0(xq, v0) = v1) |  ~ aNaturalNumber0(v0) | sdtlbdtrb0(xt, v0) = v1)
% 12.17/3.39  | (19)  ! [v0] :  ! [v1] : ( ~ (smndt0(v0) = v1) |  ~ aScalar0(v0) | aScalar0(v1))
% 12.17/3.39  | (20)  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] : ( ~ (sdtasdt0(v3, v2) = v4) |  ~ (sdtasdt0(v0, v1) = v3) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v5] :  ? [v6] :  ? [v7] :  ? [v8] : (sdtasdt0(v1, v2) = v8 & sdtasdt0(v1, v0) = v3 & sdtasdt0(v0, v8) = v4 & sdtpldt0(v5, v2) = v6 & sdtpldt0(v1, v2) = v7 & sdtpldt0(v1, v0) = v5 & sdtpldt0(v0, v7) = v6 & sdtpldt0(v0, v1) = v5))
% 12.17/3.39  | (21) sdtasdt0(xA, xA) = xF
% 12.17/3.39  | (22)  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] : ( ~ (sdtasasdt0(v0, v1) = v2) |  ~ (sdtasdt0(v2, v2) = v3) |  ~ aVector0(v1) |  ~ aVector0(v0) |  ? [v4] :  ? [v5] :  ? [v6] :  ? [v7] :  ? [v8] : (sdtasasdt0(v1, v1) = v7 & sdtasasdt0(v0, v0) = v6 & aDimensionOf0(v1) = v5 & aDimensionOf0(v0) = v4 & sdtasdt0(v6, v7) = v8 & ( ~ (v5 = v4) |  ~ iLess0(v4, all_0_16_16) | sdtlseqdt0(v3, v8))))
% 12.17/3.39  | (23)  ! [v0] :  ! [v1] : ( ~ (sdtasdt0(v0, sz0z00) = v1) |  ~ aScalar0(v0) |  ? [v2] : (smndt0(v2) = v0 & smndt0(v0) = v2 & sdtasdt0(sz0z00, v0) = sz0z00 & sdtpldt0(v2, v0) = sz0z00 & sdtpldt0(v0, v2) = sz0z00 & sdtpldt0(v0, sz0z00) = v0 & sdtpldt0(sz0z00, v0) = v0))
% 12.17/3.39  | (24)  ! [v0] :  ! [v1] : (v1 = v0 |  ~ (sdtpldt0(sz0z00, v0) = v1) |  ~ aScalar0(v0))
% 12.17/3.39  | (25)  ! [v0] :  ! [v1] : (v1 = sz0z00 |  ~ (sdtasdt0(v0, sz0z00) = v1) |  ~ aScalar0(v0))
% 12.17/3.39  | (26)  ! [v0] :  ! [v1] : ( ~ (aDimensionOf0(v0) = v1) |  ~ aVector0(v0) | aNaturalNumber0(v1))
% 12.17/3.39  | (27) sdtlbdtrb0(xs, all_0_16_16) = xA
% 12.17/3.39  | (28) aDimensionOf0(xs) = all_0_16_16
% 12.17/3.39  | (29)  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (sdtpldt0(v0, v1) = v2) |  ~ sdtlseqdt0(sz0z00, v1) |  ~ sdtlseqdt0(sz0z00, v0) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v3] : (sdtasdt0(v0, v1) = v3 & sdtlseqdt0(sz0z00, v3)))
% 12.17/3.39  | (30) sdtlseqdt0(all_0_8_8, all_0_5_5)
% 12.17/3.39  | (31) sdtasasdt0(xs, xt) = all_0_4_4
% 12.17/3.39  | (32)  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] : ( ~ (smndt0(v0) = v2) |  ~ (sdtasdt0(v2, v1) = v3) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v4] :  ? [v5] : (smndt0(v5) = v3 & smndt0(v1) = v4 & sdtasdt0(v0, v4) = v3 & sdtasdt0(v0, v1) = v5))
% 12.17/3.39  | (33)  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (sdtpldt0(v0, v1) = v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) | aScalar0(v2))
% 12.17/3.39  | (34)  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] :  ! [v5] : ( ~ (sdtasdt0(v1, v3) = v5) |  ~ (sdtasdt0(v0, v2) = v4) |  ~ sdtlseqdt0(v2, v3) |  ~ sdtlseqdt0(v0, v1) |  ~ sdtlseqdt0(sz0z00, v2) |  ~ aScalar0(v3) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) | sdtlseqdt0(v4, v5))
% 12.17/3.39  | (35)  ! [v0] :  ! [v1] : ( ~ (smndt0(v0) = v1) |  ~ aScalar0(v0) | (smndt0(v1) = v0 & sdtasdt0(v0, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v0) = sz0z00 & sdtpldt0(v1, v0) = sz0z00 & sdtpldt0(v0, v1) = sz0z00 & sdtpldt0(v0, sz0z00) = v0 & sdtpldt0(sz0z00, v0) = v0))
% 12.17/3.39  | (36)  ~ sdtlseqdt0(all_0_3_3, all_0_0_0)
% 12.17/3.39  | (37)  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] : ( ~ (sziznziztdt0(v1) = v3) |  ~ (aDimensionOf0(v0) = v2) |  ~ aVector0(v1) |  ~ aVector0(v0) |  ? [v4] :  ? [v5] :  ? [v6] :  ? [v7] : (sziznziztdt0(v0) = v5 & aDimensionOf0(v5) = v6 & aDimensionOf0(v3) = v7 & aDimensionOf0(v1) = v4 & ( ~ (v4 = v2) | v7 = v6 | v2 = sz00)))
% 12.17/3.39  | (38) aVector0(xp)
% 12.17/3.39  | (39)  ! [v0] :  ! [v1] : ( ~ (szszuzczcdt0(v0) = v1) |  ~ aNaturalNumber0(v0) | aNaturalNumber0(v1))
% 12.17/3.39  | (40)  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] : ( ~ (sdtasdt0(v1, v2) = v3) |  ~ (sdtasdt0(v0, v3) = v4) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v5] :  ? [v6] :  ? [v7] :  ? [v8] : (sdtasdt0(v8, v2) = v4 & sdtasdt0(v1, v0) = v8 & sdtasdt0(v0, v1) = v8 & sdtpldt0(v5, v2) = v6 & sdtpldt0(v1, v2) = v7 & sdtpldt0(v1, v0) = v5 & sdtpldt0(v0, v7) = v6 & sdtpldt0(v0, v1) = v5))
% 12.17/3.39  | (41) szszuzczcdt0(all_0_15_15) = all_0_16_16
% 12.17/3.39  | (42)  ! [v0] :  ! [v1] :  ! [v2] : (all_0_17_17 = sz0z00 |  ~ (smndt0(v0) = v1) |  ~ (sdtpldt0(v1, v0) = v2) |  ~ aScalar0(v0))
% 12.17/3.39  | (43)  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (sdtasdt0(v0, v1) = v2) |  ~ sdtlseqdt0(sz0z00, v1) |  ~ sdtlseqdt0(sz0z00, v0) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v3] : (sdtpldt0(v0, v1) = v3 & sdtlseqdt0(sz0z00, v3)))
% 12.17/3.39  | (44) sdtasasdt0(xq, xq) = xD
% 12.17/3.39  | (45)  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] : (v2 = sz00 |  ~ (sziznziztdt0(v0) = v3) |  ~ (aDimensionOf0(v1) = v2) |  ~ aVector0(v1) |  ~ aVector0(v0) |  ? [v4] :  ? [v5] :  ? [v6] :  ? [v7] : (sziznziztdt0(v1) = v6 & aDimensionOf0(v6) = v7 & aDimensionOf0(v3) = v5 & aDimensionOf0(v0) = v4 & ( ~ (v4 = v2) | v7 = v5)))
% 12.17/3.40  | (46)  ! [v0] :  ! [v1] :  ! [v2] : (v2 = sz0z00 |  ~ (sdtasasdt0(v0, v1) = v2) |  ~ aVector0(v1) |  ~ aVector0(v0) |  ? [v3] :  ? [v4] : (aDimensionOf0(v1) = v4 & aDimensionOf0(v0) = v3 & ( ~ (v4 = sz00) |  ~ (v3 = sz00))))
% 12.17/3.40  | (47) sdtlseqdt0(all_0_13_13, all_0_12_12)
% 12.17/3.40  | (48)  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] :  ! [v5] :  ! [v6] : ( ~ (sdtasdt0(v4, v5) = v6) |  ~ (sdtpldt0(v2, v3) = v5) |  ~ (sdtpldt0(v0, v1) = v4) |  ~ aScalar0(v3) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v7] :  ? [v8] :  ? [v9] :  ? [v10] :  ? [v11] :  ? [v12] : (sdtasdt0(v1, v3) = v11 & sdtasdt0(v1, v2) = v10 & sdtasdt0(v0, v3) = v8 & sdtasdt0(v0, v2) = v7 & sdtpldt0(v10, v11) = v12 & sdtpldt0(v9, v12) = v6 & sdtpldt0(v7, v8) = v9))
% 12.17/3.40  | (49)  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (sdtasasdt0(v0, v1) = v2) |  ~ aVector0(v1) |  ~ aVector0(v0) |  ? [v3] :  ? [v4] :  ? [v5] :  ? [v6] :  ? [v7] :  ? [v8] :  ? [v9] :  ? [v10] :  ? [v11] : (sdtasasdt0(v5, v6) = v7 & sziznziztdt0(v1) = v6 & sziznziztdt0(v0) = v5 & sdtlbdtrb0(v1, v4) = v9 & sdtlbdtrb0(v0, v3) = v8 & aDimensionOf0(v1) = v4 & aDimensionOf0(v0) = v3 & sdtasdt0(v8, v9) = v10 & sdtpldt0(v7, v10) = v11 & ( ~ (v4 = v3) | v11 = v2 | v3 = sz00)))
% 12.17/3.40  | (50)  ! [v0] :  ! [v1] :  ! [v2] : ( ~ sdtlseqdt0(v1, v2) |  ~ sdtlseqdt0(v0, v1) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) | sdtlseqdt0(v0, v2))
% 12.17/3.40  | (51)  ! [v0] :  ! [v1] : ( ~ (sdtasasdt0(v0, v0) = v1) |  ~ aVector0(v0) | sdtlseqdt0(sz0z00, v1))
% 12.17/3.40  | (52) aScalar0(xA)
% 12.17/3.40  | (53)  ! [v0] :  ! [v1] :  ! [v2] : (v2 = sz00 |  ~ (aDimensionOf0(v1) = v2) |  ~ (aDimensionOf0(v0) = v2) |  ~ aVector0(v1) |  ~ aVector0(v0) |  ? [v3] :  ? [v4] :  ? [v5] : (sziznziztdt0(v1) = v5 & sziznziztdt0(v0) = v3 & aDimensionOf0(v5) = v4 & aDimensionOf0(v3) = v4))
% 12.17/3.40  | (54)  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] : ( ~ (smndt0(v1) = v2) |  ~ (sdtasdt0(v0, v2) = v3) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v4] :  ? [v5] : (smndt0(v4) = v3 & smndt0(v0) = v5 & sdtasdt0(v5, v1) = v3 & sdtasdt0(v0, v1) = v4))
% 12.17/3.40  | (55)  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (sdtasdt0(v0, v1) = v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) | aScalar0(v2))
% 12.17/3.40  | (56)  ! [v0] :  ! [v1] :  ! [v2] : (v1 = v0 |  ~ (aDimensionOf0(v2) = v1) |  ~ (aDimensionOf0(v2) = v0))
% 12.17/3.40  | (57) sdtasdt0(all_0_7_7, all_0_6_6) = all_0_5_5
% 12.17/3.40  | (58) aScalar0(xE)
% 12.17/3.40  | (59)  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] : (v1 = v0 |  ~ (sdtpldt0(v3, v2) = v1) |  ~ (sdtpldt0(v3, v2) = v0))
% 12.17/3.40  | (60)  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (sdtasasdt0(v0, v1) = v2) |  ~ aVector0(v1) |  ~ aVector0(v0) | aScalar0(v2) |  ? [v3] :  ? [v4] : ( ~ (v4 = v3) & aDimensionOf0(v1) = v4 & aDimensionOf0(v0) = v3))
% 12.17/3.40  | (61) sdtpldt0(xR, xS) = all_0_10_10
% 12.17/3.40  | (62)  ! [v0] :  ! [v1] : (all_0_17_17 = sz0z00 |  ~ (sdtpldt0(v0, sz0z00) = v1) |  ~ aScalar0(v0))
% 12.17/3.40  | (63)  ! [v0] : (v0 = sz00 |  ~ aNaturalNumber0(v0) |  ? [v1] : (szszuzczcdt0(v1) = v0 & aNaturalNumber0(v1)))
% 12.17/3.40  | (64)  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (sdtasdt0(v0, v1) = v2) |  ~ sdtlseqdt0(sz0z00, v1) |  ~ sdtlseqdt0(sz0z00, v0) |  ~ aScalar0(v1) |  ~ aScalar0(v0) | sdtlseqdt0(sz0z00, v2))
% 12.17/3.40  | (65)  ! [v0] : ( ~ aScalar0(v0) | sdtlseqdt0(v0, v0))
% 12.17/3.40  | (66) aScalar0(xR)
% 12.17/3.40  | (67) sdtpldt0(xC, xF) = all_0_7_7
% 12.17/3.40  | (68)  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (aDimensionOf0(v1) = v2) |  ~ (aDimensionOf0(v0) = v2) |  ~ aVector0(v1) |  ~ aVector0(v0) |  ~ iLess0(v2, all_0_16_16) |  ? [v3] :  ? [v4] :  ? [v5] :  ? [v6] :  ? [v7] : (sdtasasdt0(v1, v1) = v6 & sdtasasdt0(v0, v1) = v3 & sdtasasdt0(v0, v0) = v5 & sdtasdt0(v5, v6) = v7 & sdtasdt0(v3, v3) = v4 & sdtlseqdt0(v4, v7)))
% 12.17/3.40  | (69)  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] : (v1 = v0 |  ~ (sdtasasdt0(v3, v2) = v1) |  ~ (sdtasasdt0(v3, v2) = v0))
% 12.17/3.40  | (70) aScalar0(xC)
% 12.17/3.40  | (71) aScalar0(xB)
% 12.17/3.40  | (72)  ! [v0] :  ! [v1] : (v1 = v0 |  ~ (sdtpldt0(v0, sz0z00) = v1) |  ~ aScalar0(v0))
% 12.17/3.40  | (73) sziznziztdt0(xt) = xq
% 12.17/3.40  | (74)  ! [v0] :  ! [v1] : ( ~ (sdtasdt0(sz0z00, v0) = v1) |  ~ aScalar0(v0) |  ? [v2] : (smndt0(v2) = v0 & smndt0(v0) = v2 & sdtasdt0(v0, sz0z00) = sz0z00 & sdtpldt0(v2, v0) = sz0z00 & sdtpldt0(v0, v2) = sz0z00 & sdtpldt0(v0, sz0z00) = v0 & sdtpldt0(sz0z00, v0) = v0))
% 12.17/3.40  | (75)  ! [v0] :  ! [v1] :  ! [v2] : (v1 = v0 |  ~ (szszuzczcdt0(v1) = v2) |  ~ (szszuzczcdt0(v0) = v2) |  ~ aNaturalNumber0(v1) |  ~ aNaturalNumber0(v0))
% 12.17/3.40  | (76) sdtlbdtrb0(xt, all_0_16_16) = xB
% 12.17/3.40  | (77)  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] : ( ~ (sdtasasdt0(v1, v1) = v3) |  ~ (sdtasasdt0(v0, v0) = v2) |  ~ (sdtasdt0(v2, v3) = v4) |  ~ aVector0(v1) |  ~ aVector0(v0) |  ? [v5] :  ? [v6] :  ? [v7] :  ? [v8] : (sdtasasdt0(v0, v1) = v7 & aDimensionOf0(v1) = v6 & aDimensionOf0(v0) = v5 & sdtasdt0(v7, v7) = v8 & ( ~ (v6 = v5) |  ~ iLess0(v5, all_0_16_16) | sdtlseqdt0(v8, v4))))
% 12.17/3.40  | (78) sdtasasdt0(xs, xs) = all_0_2_2
% 12.17/3.40  | (79)  ! [v0] :  ! [v1] :  ! [v2] : (v1 = v0 |  ~ (szszuzczcdt0(v2) = v1) |  ~ (szszuzczcdt0(v2) = v0))
% 12.17/3.40  | (80) sdtasasdt0(xp, xq) = xE
% 12.17/3.40  | (81)  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (aDimensionOf0(v1) = v2) |  ~ (aDimensionOf0(v0) = v2) |  ~ aVector0(v1) |  ~ aVector0(v0) |  ? [v3] : (sdtasasdt0(v0, v1) = v3 & aScalar0(v3)))
% 12.17/3.41  | (82)  ! [v0] :  ! [v1] :  ! [v2] : (v1 = v0 |  ~ (sdtasdt0(v1, v1) = v2) |  ~ (sdtasdt0(v0, v0) = v2) |  ~ sdtlseqdt0(sz0z00, v1) |  ~ sdtlseqdt0(sz0z00, v0) |  ~ aScalar0(v1) |  ~ aScalar0(v0))
% 12.17/3.41  | (83) aScalar0(xF)
% 12.17/3.41  | (84) aScalar0(xS)
% 12.17/3.41  | (85) sdtasdt0(xF, xD) = xS
% 12.17/3.41  | (86) aVector0(xt)
% 12.17/3.41  | (87) aNaturalNumber0(sz00)
% 12.17/3.41  | (88) szszuzczcdt0(all_0_14_14) = all_0_16_16
% 12.17/3.41  | (89)  ! [v0] :  ! [v1] :  ! [v2] : (all_0_17_17 = sz0z00 |  ~ (smndt0(v0) = v1) |  ~ (sdtpldt0(v0, v1) = v2) |  ~ aScalar0(v0))
% 12.17/3.41  | (90)  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] :  ! [v5] :  ! [v6] :  ! [v7] :  ! [v8] :  ! [v9] : (v2 = sz00 |  ~ (sdtasasdt0(v3, v4) = v5) |  ~ (sziznziztdt0(v1) = v4) |  ~ (sziznziztdt0(v0) = v3) |  ~ (sdtlbdtrb0(v1, v2) = v7) |  ~ (sdtlbdtrb0(v0, v2) = v6) |  ~ (aDimensionOf0(v1) = v2) |  ~ (aDimensionOf0(v0) = v2) |  ~ (sdtasdt0(v6, v7) = v8) |  ~ (sdtpldt0(v5, v8) = v9) |  ~ aVector0(v1) |  ~ aVector0(v0) | sdtasasdt0(v0, v1) = v9)
% 12.17/3.41  | (91)  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] :  ! [v5] : ( ~ (sdtpldt0(v1, v3) = v5) |  ~ (sdtpldt0(v0, v2) = v4) |  ~ sdtlseqdt0(v2, v3) |  ~ sdtlseqdt0(v0, v1) |  ~ aScalar0(v3) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) | sdtlseqdt0(v4, v5))
% 12.17/3.41  | (92) aVector0(xs)
% 12.17/3.41  | (93)  ! [v0] :  ! [v1] : ( ~ (sdtlbdtrb0(xt, v0) = v1) |  ~ aNaturalNumber0(v0) | sdtlbdtrb0(xq, v0) = v1)
% 12.17/3.41  | (94) sdtasdt0(all_0_2_2, all_0_1_1) = all_0_0_0
% 12.17/3.41  | (95)  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (smndt0(v0) = v1) |  ~ (sdtpldt0(v0, v1) = v2) |  ~ aScalar0(v0) | (smndt0(v1) = v0 & sdtasdt0(v0, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v0) = sz0z00 & sdtpldt0(v1, v0) = sz0z00 & sdtpldt0(v0, sz0z00) = v0 & sdtpldt0(sz0z00, v0) = v0))
% 12.17/3.41  | (96)  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] : ( ~ (sziznziztdt0(v1) = v3) |  ~ (sziznziztdt0(v0) = v2) |  ~ aVector0(v1) |  ~ aVector0(v0) |  ? [v4] :  ? [v5] :  ? [v6] :  ? [v7] : (aDimensionOf0(v3) = v7 & aDimensionOf0(v2) = v6 & aDimensionOf0(v1) = v5 & aDimensionOf0(v0) = v4 & ( ~ (v5 = v4) | v7 = v6 | v4 = sz00)))
% 12.17/3.41  | (97) sdtasasdt0(xt, xt) = all_0_1_1
% 12.17/3.41  | (98)  ! [v0] :  ! [v1] : ( ~ aScalar0(v1) |  ~ aScalar0(v0) | sdtlseqdt0(v1, v0) | sdtlseqdt0(v0, v1))
% 12.17/3.41  | (99)  ! [v0] :  ! [v1] : ( ~ (sdtasdt0(v0, v0) = v1) |  ~ aScalar0(v0) | sdtlseqdt0(sz0z00, v1))
% 12.17/3.41  | (100)  ! [v0] :  ! [v1] : ( ~ (sdtpldt0(v0, sz0z00) = v1) |  ~ aScalar0(v0) |  ? [v2] : (smndt0(v2) = v0 & smndt0(v0) = v2 & sdtasdt0(v0, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v0) = sz0z00 & sdtpldt0(v2, v0) = sz0z00 & sdtpldt0(v0, v2) = sz0z00 & sdtpldt0(sz0z00, v0) = v0))
% 12.17/3.41  | (101) aDimensionOf0(xq) = all_0_14_14
% 12.17/3.41  | (102) aScalar0(sz0z00)
% 12.17/3.41  | (103) sziznziztdt0(xs) = xp
% 12.17/3.41  | (104)  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] :  ! [v5] :  ! [v6] :  ! [v7] :  ! [v8] :  ! [v9] :  ! [v10] : ( ~ (sdtasdt0(v1, v3) = v8) |  ~ (sdtasdt0(v1, v2) = v7) |  ~ (sdtasdt0(v0, v3) = v5) |  ~ (sdtasdt0(v0, v2) = v4) |  ~ (sdtpldt0(v7, v8) = v9) |  ~ (sdtpldt0(v6, v9) = v10) |  ~ (sdtpldt0(v4, v5) = v6) |  ~ aScalar0(v3) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v11] :  ? [v12] : (sdtasdt0(v11, v12) = v10 & sdtpldt0(v2, v3) = v12 & sdtpldt0(v0, v1) = v11))
% 12.17/3.41  | (105)  ! [v0] :  ! [v1] : ( ~ (aDimensionOf0(v1) = sz00) |  ~ (aDimensionOf0(v0) = sz00) |  ~ aVector0(v1) |  ~ aVector0(v0) | sdtasasdt0(v0, v1) = sz0z00)
% 12.17/3.41  | (106)  ! [v0] :  ! [v1] : ( ~ (sdtlbdtrb0(xs, v0) = v1) |  ~ aNaturalNumber0(v0) | sdtlbdtrb0(xp, v0) = v1)
% 12.17/3.41  | (107)  ! [v0] :  ! [v1] :  ! [v2] : (v2 = sz00 |  ~ (aDimensionOf0(v1) = v2) |  ~ (aDimensionOf0(v0) = v2) |  ~ aVector0(v1) |  ~ aVector0(v0) |  ? [v3] :  ? [v4] :  ? [v5] :  ? [v6] :  ? [v7] :  ? [v8] :  ? [v9] : (sdtasasdt0(v4, v5) = v6 & sdtasasdt0(v0, v1) = v3 & sziznziztdt0(v1) = v5 & sziznziztdt0(v0) = v4 & sdtlbdtrb0(v1, v2) = v8 & sdtlbdtrb0(v0, v2) = v7 & sdtasdt0(v7, v8) = v9 & sdtpldt0(v6, v9) = v3))
% 12.17/3.41  | (108) sdtlseqdt0(all_0_11_11, all_0_10_10)
% 12.17/3.41  | (109) sdtasasdt0(xp, xp) = xC
% 12.17/3.41  | (110)  ! [v0] :  ! [v1] : (all_0_17_17 = sz0z00 |  ~ (smndt0(v0) = v1) |  ~ aScalar0(v0))
% 12.17/3.41  | (111)  ! [v0] :  ! [v1] :  ! [v2] : (v1 = v0 |  ~ (smndt0(v2) = v1) |  ~ (smndt0(v2) = v0))
% 12.17/3.41  | (112) sdtasdt0(all_0_4_4, all_0_4_4) = all_0_3_3
% 12.17/3.41  | (113)  ! [v0] :  ! [v1] : (v1 = sz0z00 |  ~ (sdtasdt0(sz0z00, v0) = v1) |  ~ aScalar0(v0))
% 12.17/3.41  | (114) sdtasdt0(xE, xE) = all_0_13_13
% 12.17/3.41  | (115)  ! [v0] :  ! [v1] : ( ~ (szszuzczcdt0(v0) = v1) |  ~ aNaturalNumber0(v0) | iLess0(v0, v1))
% 12.17/3.41  | (116) sdtasdt0(xB, xB) = xG
% 12.17/3.41  | (117)  ! [v0] : ( ~ (szszuzczcdt0(v0) = sz00) |  ~ aNaturalNumber0(v0))
% 12.17/3.41  | (118)  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (sdtpldt0(v0, v1) = v2) |  ~ sdtlseqdt0(sz0z00, v1) |  ~ sdtlseqdt0(sz0z00, v0) |  ~ aScalar0(v1) |  ~ aScalar0(v0) | sdtlseqdt0(sz0z00, v2))
% 12.17/3.41  | (119)  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] : (v1 = v0 |  ~ (sdtlbdtrb0(v3, v2) = v1) |  ~ (sdtlbdtrb0(v3, v2) = v0))
% 12.17/3.41  | (120)  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (sdtasdt0(v0, v1) = v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v3] :  ? [v4] : (smndt0(v1) = v4 & smndt0(v0) = v3 & sdtasdt0(v3, v4) = v2))
% 12.17/3.41  | (121) aScalar0(xG)
% 12.17/3.41  | (122)  ! [v0] :  ! [v1] : ( ~ (sziznziztdt0(v0) = v1) |  ~ aVector0(v0) |  ? [v2] : (aDimensionOf0(v0) = v2 & (v2 = sz00 | ( ! [v3] :  ! [v4] :  ! [v5] : ( ~ (sdtlbdtrb0(v1, v4) = v5) |  ~ (aDimensionOf0(v1) = v3) |  ~ aNaturalNumber0(v4) | sdtlbdtrb0(v0, v4) = v5) &  ! [v3] :  ! [v4] :  ! [v5] : ( ~ (sdtlbdtrb0(v0, v4) = v5) |  ~ (aDimensionOf0(v1) = v3) |  ~ aNaturalNumber0(v4) | sdtlbdtrb0(v1, v4) = v5) &  ! [v3] :  ! [v4] : (v3 = v1 |  ~ (aDimensionOf0(v3) = v4) |  ~ aVector0(v3) |  ? [v5] :  ? [v6] :  ? [v7] : (( ~ (v7 = v6) & sdtlbdtrb0(v3, v5) = v6 & sdtlbdtrb0(v0, v5) = v7 & aNaturalNumber0(v5)) | ( ~ (v5 = v2) & szszuzczcdt0(v4) = v5))) &  ! [v3] : ( ~ (aDimensionOf0(v1) = v3) | szszuzczcdt0(v3) = v2) &  ! [v3] : ( ~ (aDimensionOf0(v1) = v3) | aVector0(v1))))))
% 12.17/3.41  | (123) sdtasdt0(xE, xH) = xP
% 12.17/3.41  | (124)  ! [v0] :  ! [v1] : (v1 = v0 |  ~ sdtlseqdt0(v1, v0) |  ~ sdtlseqdt0(v0, v1) |  ~ aScalar0(v1) |  ~ aScalar0(v0))
% 12.17/3.41  | (125)  ! [v0] :  ! [v1] : (v1 = sz00 |  ~ (aDimensionOf0(v0) = v1) |  ~ aVector0(v0) |  ? [v2] : (sziznziztdt0(v0) = v2 &  ! [v3] :  ! [v4] :  ! [v5] : ( ~ (sdtlbdtrb0(v2, v4) = v5) |  ~ (aDimensionOf0(v2) = v3) |  ~ aNaturalNumber0(v4) | sdtlbdtrb0(v0, v4) = v5) &  ! [v3] :  ! [v4] :  ! [v5] : ( ~ (sdtlbdtrb0(v0, v4) = v5) |  ~ (aDimensionOf0(v2) = v3) |  ~ aNaturalNumber0(v4) | sdtlbdtrb0(v2, v4) = v5) &  ! [v3] :  ! [v4] : (v3 = v2 |  ~ (aDimensionOf0(v3) = v4) |  ~ aVector0(v3) |  ? [v5] :  ? [v6] :  ? [v7] : (( ~ (v7 = v6) & sdtlbdtrb0(v3, v5) = v6 & sdtlbdtrb0(v0, v5) = v7 & aNaturalNumber0(v5)) | ( ~ (v5 = v1) & szszuzczcdt0(v4) = v5))) &  ! [v3] : ( ~ (aDimensionOf0(v2) = v3) | szszuzczcdt0(v3) = v1) &  ! [v3] : ( ~ (aDimensionOf0(v2) = v3) | aVector0(v2))))
% 12.17/3.41  | (126)  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] : ( ~ (sdtasdt0(v0, v3) = v4) |  ~ (sdtpldt0(v1, v2) = v3) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v5] :  ? [v6] :  ? [v7] :  ? [v8] :  ? [v9] : (sdtasdt0(v7, v2) = v8 & sdtasdt0(v1, v2) = v9 & sdtasdt0(v0, v2) = v6 & sdtasdt0(v0, v1) = v5 & sdtpldt0(v6, v9) = v8 & sdtpldt0(v5, v6) = v4 & sdtpldt0(v0, v1) = v7))
% 12.17/3.41  | (127) aScalar0(xN)
% 12.17/3.41  | (128)  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (sdtasdt0(v0, v1) = v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v3] :  ? [v4] :  ? [v5] : (smndt0(v2) = v4 & smndt0(v1) = v3 & smndt0(v0) = v5 & sdtasdt0(v5, v1) = v4 & sdtasdt0(v0, v3) = v4))
% 12.17/3.41  | (129)  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] : ( ~ (smndt0(v1) = v3) |  ~ (smndt0(v0) = v2) |  ~ (sdtasdt0(v2, v3) = v4) |  ~ aScalar0(v1) |  ~ aScalar0(v0) | sdtasdt0(v0, v1) = v4)
% 12.17/3.41  | (130) sdtasdt0(xC, xG) = xR
% 12.17/3.41  | (131)  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (smndt0(v0) = v1) |  ~ (sdtpldt0(v1, v0) = v2) |  ~ aScalar0(v0) | (smndt0(v1) = v0 & sdtasdt0(v0, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v0) = sz0z00 & sdtpldt0(v0, v1) = sz0z00 & sdtpldt0(v0, sz0z00) = v0 & sdtpldt0(sz0z00, v0) = v0))
% 12.17/3.42  | (132) aScalar0(xP)
% 12.17/3.42  | (133)  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] :  ! [v5] : ( ~ (sdtasdt0(v1, v2) = v4) |  ~ (sdtasdt0(v0, v2) = v3) |  ~ (sdtpldt0(v3, v4) = v5) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v6] :  ? [v7] :  ? [v8] :  ? [v9] : (sdtasdt0(v9, v2) = v5 & sdtasdt0(v0, v6) = v7 & sdtasdt0(v0, v1) = v8 & sdtpldt0(v8, v3) = v7 & sdtpldt0(v1, v2) = v6 & sdtpldt0(v0, v1) = v9))
% 12.17/3.42  | (134)  ! [v0] :  ! [v1] : (all_0_17_17 = sz0z00 |  ~ (sdtasdt0(v0, sz0z00) = v1) |  ~ aScalar0(v0))
% 12.17/3.42  | (135) sdtpldt0(xD, xG) = all_0_6_6
% 12.17/3.42  | (136) sdtasdt0(xA, xB) = xH
% 12.17/3.42  | (137)  ! [v0] :  ! [v1] :  ! [v2] : (v2 = sz0z00 |  ~ (smndt0(v0) = v1) |  ~ (sdtpldt0(v0, v1) = v2) |  ~ aScalar0(v0))
% 12.17/3.42  | (138)  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] : (v1 = v0 |  ~ (sdtasdt0(v3, v2) = v1) |  ~ (sdtasdt0(v3, v2) = v0))
% 12.17/3.42  | (139) aScalar0(xD)
% 12.17/3.42  | (140) sdtasdt0(xR, xS) = xN
% 12.17/3.42  | (141)  ~ (all_0_16_16 = sz00)
% 12.17/3.42  | (142)  ! [v0] :  ! [v1] : (all_0_17_17 = sz0z00 |  ~ (sdtasdt0(sz0z00, v0) = v1) |  ~ aScalar0(v0))
% 12.17/3.42  | (143)  ! [v0] :  ! [v1] :  ! [v2] : (v2 = sz0z00 |  ~ (smndt0(v0) = v1) |  ~ (sdtpldt0(v1, v0) = v2) |  ~ aScalar0(v0))
% 12.17/3.42  | (144)  ! [v0] :  ! [v1] :  ! [v2] : (v1 = v0 |  ~ (sziznziztdt0(v2) = v1) |  ~ (sziznziztdt0(v2) = v0))
% 12.17/3.42  | (145)  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] : ( ~ (sdtpldt0(v1, v2) = v3) |  ~ (sdtpldt0(v0, v3) = v4) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v5] :  ? [v6] :  ? [v7] :  ? [v8] : (sdtasdt0(v6, v2) = v7 & sdtasdt0(v1, v2) = v8 & sdtasdt0(v1, v0) = v6 & sdtasdt0(v0, v8) = v7 & sdtasdt0(v0, v1) = v6 & sdtpldt0(v5, v2) = v4 & sdtpldt0(v1, v0) = v5 & sdtpldt0(v0, v1) = v5))
% 12.17/3.42  |
% 12.17/3.42  | Instantiating formula (90) with all_0_6_6, xG, xB, xB, xD, xq, xq, all_0_16_16, xt, xt and discharging atoms sdtasasdt0(xq, xq) = xD, sziznziztdt0(xt) = xq, sdtlbdtrb0(xt, all_0_16_16) = xB, aDimensionOf0(xt) = all_0_16_16, sdtasdt0(xB, xB) = xG, sdtpldt0(xD, xG) = all_0_6_6, aVector0(xt), yields:
% 12.17/3.42  | (146) all_0_16_16 = sz00 | sdtasasdt0(xt, xt) = all_0_6_6
% 12.17/3.42  |
% 12.17/3.42  | Instantiating formula (107) with all_0_16_16, xt, xt and discharging atoms aDimensionOf0(xt) = all_0_16_16, aVector0(xt), yields:
% 12.17/3.42  | (147) all_0_16_16 = sz00 |  ? [v0] :  ? [v1] :  ? [v2] :  ? [v3] :  ? [v4] :  ? [v5] :  ? [v6] : (sdtasasdt0(v1, v2) = v3 & sdtasasdt0(xt, xt) = v0 & sziznziztdt0(xt) = v2 & sziznziztdt0(xt) = v1 & sdtlbdtrb0(xt, all_0_16_16) = v5 & sdtlbdtrb0(xt, all_0_16_16) = v4 & sdtasdt0(v4, v5) = v6 & sdtpldt0(v3, v6) = v0)
% 12.17/3.42  |
% 12.17/3.42  | Instantiating formula (81) with all_0_16_16, xt, xt and discharging atoms aDimensionOf0(xt) = all_0_16_16, aVector0(xt), yields:
% 12.17/3.42  | (148)  ? [v0] : (sdtasasdt0(xt, xt) = v0 & aScalar0(v0))
% 12.17/3.42  |
% 12.17/3.42  | Instantiating formula (90) with all_0_9_9, xH, xB, xA, xE, xq, xp, all_0_16_16, xt, xs and discharging atoms sdtasasdt0(xp, xq) = xE, sziznziztdt0(xt) = xq, sziznziztdt0(xs) = xp, sdtlbdtrb0(xt, all_0_16_16) = xB, sdtlbdtrb0(xs, all_0_16_16) = xA, aDimensionOf0(xt) = all_0_16_16, aDimensionOf0(xs) = all_0_16_16, sdtasdt0(xA, xB) = xH, sdtpldt0(xE, xH) = all_0_9_9, aVector0(xt), aVector0(xs), yields:
% 12.17/3.42  | (149) all_0_16_16 = sz00 | sdtasasdt0(xs, xt) = all_0_9_9
% 12.17/3.42  |
% 12.17/3.42  | Instantiating formula (90) with all_0_7_7, xF, xA, xA, xC, xp, xp, all_0_16_16, xs, xs and discharging atoms sdtasasdt0(xp, xp) = xC, sziznziztdt0(xs) = xp, sdtlbdtrb0(xs, all_0_16_16) = xA, aDimensionOf0(xs) = all_0_16_16, sdtasdt0(xA, xA) = xF, sdtpldt0(xC, xF) = all_0_7_7, aVector0(xs), yields:
% 12.17/3.42  | (150) all_0_16_16 = sz00 | sdtasasdt0(xs, xs) = all_0_7_7
% 12.17/3.42  |
% 12.17/3.42  | Instantiating formula (77) with all_0_0_0, all_0_1_1, all_0_2_2, xt, xs and discharging atoms sdtasasdt0(xt, xt) = all_0_1_1, sdtasasdt0(xs, xs) = all_0_2_2, sdtasdt0(all_0_2_2, all_0_1_1) = all_0_0_0, aVector0(xt), aVector0(xs), yields:
% 12.17/3.42  | (151)  ? [v0] :  ? [v1] :  ? [v2] :  ? [v3] : (sdtasasdt0(xs, xt) = v2 & aDimensionOf0(xt) = v1 & aDimensionOf0(xs) = v0 & sdtasdt0(v2, v2) = v3 & ( ~ (v1 = v0) |  ~ iLess0(v0, all_0_16_16) | sdtlseqdt0(v3, all_0_0_0)))
% 12.17/3.42  |
% 12.17/3.42  | Instantiating formula (22) with all_0_3_3, all_0_4_4, xt, xs and discharging atoms sdtasasdt0(xs, xt) = all_0_4_4, sdtasdt0(all_0_4_4, all_0_4_4) = all_0_3_3, aVector0(xt), aVector0(xs), yields:
% 12.17/3.42  | (152)  ? [v0] :  ? [v1] :  ? [v2] :  ? [v3] :  ? [v4] : (sdtasasdt0(xt, xt) = v3 & sdtasasdt0(xs, xs) = v2 & aDimensionOf0(xt) = v1 & aDimensionOf0(xs) = v0 & sdtasdt0(v2, v3) = v4 & ( ~ (v1 = v0) |  ~ iLess0(v0, all_0_16_16) | sdtlseqdt0(all_0_3_3, v4)))
% 12.17/3.42  |
% 12.17/3.42  | Instantiating formula (107) with all_0_16_16, xt, xs and discharging atoms aDimensionOf0(xt) = all_0_16_16, aDimensionOf0(xs) = all_0_16_16, aVector0(xt), aVector0(xs), yields:
% 12.17/3.42  | (153) all_0_16_16 = sz00 |  ? [v0] :  ? [v1] :  ? [v2] :  ? [v3] :  ? [v4] :  ? [v5] :  ? [v6] : (sdtasasdt0(v1, v2) = v3 & sdtasasdt0(xs, xt) = v0 & sziznziztdt0(xt) = v2 & sziznziztdt0(xs) = v1 & sdtlbdtrb0(xt, all_0_16_16) = v5 & sdtlbdtrb0(xs, all_0_16_16) = v4 & sdtasdt0(v4, v5) = v6 & sdtpldt0(v3, v6) = v0)
% 12.17/3.42  |
% 12.17/3.42  | Instantiating formula (53) with all_0_16_16, xt, xs and discharging atoms aDimensionOf0(xt) = all_0_16_16, aDimensionOf0(xs) = all_0_16_16, aVector0(xt), aVector0(xs), yields:
% 12.17/3.42  | (154) all_0_16_16 = sz00 |  ? [v0] :  ? [v1] :  ? [v2] : (sziznziztdt0(xt) = v2 & sziznziztdt0(xs) = v0 & aDimensionOf0(v2) = v1 & aDimensionOf0(v0) = v1)
% 12.17/3.42  |
% 12.17/3.42  | Instantiating formula (81) with all_0_16_16, xt, xs and discharging atoms aDimensionOf0(xt) = all_0_16_16, aDimensionOf0(xs) = all_0_16_16, aVector0(xt), aVector0(xs), yields:
% 12.17/3.42  | (155)  ? [v0] : (sdtasasdt0(xs, xt) = v0 & aScalar0(v0))
% 12.17/3.42  |
% 12.17/3.42  | Instantiating formula (107) with all_0_16_16, xs, xs and discharging atoms aDimensionOf0(xs) = all_0_16_16, aVector0(xs), yields:
% 12.17/3.42  | (156) all_0_16_16 = sz00 |  ? [v0] :  ? [v1] :  ? [v2] :  ? [v3] :  ? [v4] :  ? [v5] :  ? [v6] : (sdtasasdt0(v1, v2) = v3 & sdtasasdt0(xs, xs) = v0 & sziznziztdt0(xs) = v2 & sziznziztdt0(xs) = v1 & sdtlbdtrb0(xs, all_0_16_16) = v5 & sdtlbdtrb0(xs, all_0_16_16) = v4 & sdtasdt0(v4, v5) = v6 & sdtpldt0(v3, v6) = v0)
% 12.17/3.42  |
% 12.17/3.42  | Instantiating formula (81) with all_0_16_16, xs, xs and discharging atoms aDimensionOf0(xs) = all_0_16_16, aVector0(xs), yields:
% 12.17/3.42  | (157)  ? [v0] : (sdtasasdt0(xs, xs) = v0 & aScalar0(v0))
% 12.17/3.42  |
% 12.17/3.42  | Instantiating formula (125) with all_0_16_16, xs and discharging atoms aDimensionOf0(xs) = all_0_16_16, aVector0(xs), yields:
% 12.17/3.42  | (158) all_0_16_16 = sz00 |  ? [v0] : (sziznziztdt0(xs) = v0 &  ! [v1] :  ! [v2] :  ! [v3] : ( ~ (sdtlbdtrb0(v0, v2) = v3) |  ~ (aDimensionOf0(v0) = v1) |  ~ aNaturalNumber0(v2) | sdtlbdtrb0(xs, v2) = v3) &  ! [v1] :  ! [v2] :  ! [v3] : ( ~ (sdtlbdtrb0(xs, v2) = v3) |  ~ (aDimensionOf0(v0) = v1) |  ~ aNaturalNumber0(v2) | sdtlbdtrb0(v0, v2) = v3) &  ! [v1] :  ! [v2] : (v1 = v0 |  ~ (aDimensionOf0(v1) = v2) |  ~ aVector0(v1) |  ? [v3] :  ? [v4] :  ? [v5] : (( ~ (v5 = v4) & sdtlbdtrb0(v1, v3) = v4 & sdtlbdtrb0(xs, v3) = v5 & aNaturalNumber0(v3)) | ( ~ (v3 = all_0_16_16) & szszuzczcdt0(v2) = v3))) &  ! [v1] : ( ~ (aDimensionOf0(v0) = v1) | szszuzczcdt0(v1) = all_0_16_16) &  ! [v1] : ( ~ (aDimensionOf0(v0) = v1) | aVector0(v0)))
% 12.17/3.42  |
% 12.17/3.42  | Instantiating (148) with all_17_0_22 yields:
% 12.17/3.42  | (159) sdtasasdt0(xt, xt) = all_17_0_22 & aScalar0(all_17_0_22)
% 12.17/3.42  |
% 12.17/3.42  | Applying alpha-rule on (159) yields:
% 12.17/3.42  | (160) sdtasasdt0(xt, xt) = all_17_0_22
% 12.17/3.42  | (161) aScalar0(all_17_0_22)
% 12.17/3.42  |
% 12.17/3.42  | Instantiating (157) with all_23_0_26 yields:
% 12.17/3.42  | (162) sdtasasdt0(xs, xs) = all_23_0_26 & aScalar0(all_23_0_26)
% 12.17/3.42  |
% 12.17/3.42  | Applying alpha-rule on (162) yields:
% 12.17/3.42  | (163) sdtasasdt0(xs, xs) = all_23_0_26
% 12.17/3.42  | (164) aScalar0(all_23_0_26)
% 12.17/3.42  |
% 12.17/3.42  | Instantiating (155) with all_25_0_27 yields:
% 12.17/3.42  | (165) sdtasasdt0(xs, xt) = all_25_0_27 & aScalar0(all_25_0_27)
% 12.17/3.42  |
% 12.17/3.42  | Applying alpha-rule on (165) yields:
% 12.17/3.42  | (166) sdtasasdt0(xs, xt) = all_25_0_27
% 12.17/3.42  | (167) aScalar0(all_25_0_27)
% 12.17/3.42  |
% 12.17/3.42  | Instantiating (151) with all_57_0_92, all_57_1_93, all_57_2_94, all_57_3_95 yields:
% 12.17/3.42  | (168) sdtasasdt0(xs, xt) = all_57_1_93 & aDimensionOf0(xt) = all_57_2_94 & aDimensionOf0(xs) = all_57_3_95 & sdtasdt0(all_57_1_93, all_57_1_93) = all_57_0_92 & ( ~ (all_57_2_94 = all_57_3_95) |  ~ iLess0(all_57_3_95, all_0_16_16) | sdtlseqdt0(all_57_0_92, all_0_0_0))
% 12.17/3.42  |
% 12.17/3.42  | Applying alpha-rule on (168) yields:
% 12.17/3.42  | (169) sdtasdt0(all_57_1_93, all_57_1_93) = all_57_0_92
% 12.17/3.42  | (170) aDimensionOf0(xt) = all_57_2_94
% 12.17/3.42  | (171)  ~ (all_57_2_94 = all_57_3_95) |  ~ iLess0(all_57_3_95, all_0_16_16) | sdtlseqdt0(all_57_0_92, all_0_0_0)
% 12.17/3.42  | (172) aDimensionOf0(xs) = all_57_3_95
% 12.17/3.42  | (173) sdtasasdt0(xs, xt) = all_57_1_93
% 12.17/3.42  |
% 12.17/3.43  | Instantiating (152) with all_75_0_141, all_75_1_142, all_75_2_143, all_75_3_144, all_75_4_145 yields:
% 12.17/3.43  | (174) sdtasasdt0(xt, xt) = all_75_1_142 & sdtasasdt0(xs, xs) = all_75_2_143 & aDimensionOf0(xt) = all_75_3_144 & aDimensionOf0(xs) = all_75_4_145 & sdtasdt0(all_75_2_143, all_75_1_142) = all_75_0_141 & ( ~ (all_75_3_144 = all_75_4_145) |  ~ iLess0(all_75_4_145, all_0_16_16) | sdtlseqdt0(all_0_3_3, all_75_0_141))
% 12.17/3.43  |
% 12.17/3.43  | Applying alpha-rule on (174) yields:
% 12.17/3.43  | (175) sdtasdt0(all_75_2_143, all_75_1_142) = all_75_0_141
% 12.17/3.43  | (176) aDimensionOf0(xs) = all_75_4_145
% 12.17/3.43  | (177) sdtasasdt0(xt, xt) = all_75_1_142
% 12.17/3.43  | (178)  ~ (all_75_3_144 = all_75_4_145) |  ~ iLess0(all_75_4_145, all_0_16_16) | sdtlseqdt0(all_0_3_3, all_75_0_141)
% 12.17/3.43  | (179) sdtasasdt0(xs, xs) = all_75_2_143
% 12.17/3.43  | (180) aDimensionOf0(xt) = all_75_3_144
% 12.17/3.43  |
% 12.17/3.43  +-Applying beta-rule and splitting (154), into two cases.
% 12.17/3.43  |-Branch one:
% 12.17/3.43  | (181) all_0_16_16 = sz00
% 12.17/3.43  |
% 12.17/3.43  	| Equations (181) can reduce 141 to:
% 12.17/3.43  	| (182) $false
% 12.17/3.43  	|
% 12.17/3.43  	|-The branch is then unsatisfiable
% 12.17/3.43  |-Branch two:
% 12.17/3.43  | (141)  ~ (all_0_16_16 = sz00)
% 12.17/3.43  | (184)  ? [v0] :  ? [v1] :  ? [v2] : (sziznziztdt0(xt) = v2 & sziznziztdt0(xs) = v0 & aDimensionOf0(v2) = v1 & aDimensionOf0(v0) = v1)
% 12.17/3.43  |
% 12.17/3.43  	+-Applying beta-rule and splitting (156), into two cases.
% 12.17/3.43  	|-Branch one:
% 12.17/3.43  	| (181) all_0_16_16 = sz00
% 12.17/3.43  	|
% 12.17/3.43  		| Equations (181) can reduce 141 to:
% 12.17/3.43  		| (182) $false
% 12.17/3.43  		|
% 12.17/3.43  		|-The branch is then unsatisfiable
% 12.17/3.43  	|-Branch two:
% 12.17/3.43  	| (141)  ~ (all_0_16_16 = sz00)
% 12.17/3.43  	| (188)  ? [v0] :  ? [v1] :  ? [v2] :  ? [v3] :  ? [v4] :  ? [v5] :  ? [v6] : (sdtasasdt0(v1, v2) = v3 & sdtasasdt0(xs, xs) = v0 & sziznziztdt0(xs) = v2 & sziznziztdt0(xs) = v1 & sdtlbdtrb0(xs, all_0_16_16) = v5 & sdtlbdtrb0(xs, all_0_16_16) = v4 & sdtasdt0(v4, v5) = v6 & sdtpldt0(v3, v6) = v0)
% 12.17/3.43  	|
% 12.17/3.43  		| Instantiating (188) with all_124_0_207, all_124_1_208, all_124_2_209, all_124_3_210, all_124_4_211, all_124_5_212, all_124_6_213 yields:
% 12.17/3.43  		| (189) sdtasasdt0(all_124_5_212, all_124_4_211) = all_124_3_210 & sdtasasdt0(xs, xs) = all_124_6_213 & sziznziztdt0(xs) = all_124_4_211 & sziznziztdt0(xs) = all_124_5_212 & sdtlbdtrb0(xs, all_0_16_16) = all_124_1_208 & sdtlbdtrb0(xs, all_0_16_16) = all_124_2_209 & sdtasdt0(all_124_2_209, all_124_1_208) = all_124_0_207 & sdtpldt0(all_124_3_210, all_124_0_207) = all_124_6_213
% 12.17/3.43  		|
% 12.17/3.43  		| Applying alpha-rule on (189) yields:
% 12.17/3.43  		| (190) sdtasasdt0(xs, xs) = all_124_6_213
% 12.17/3.43  		| (191) sdtasasdt0(all_124_5_212, all_124_4_211) = all_124_3_210
% 12.17/3.43  		| (192) sdtpldt0(all_124_3_210, all_124_0_207) = all_124_6_213
% 12.17/3.43  		| (193) sdtasdt0(all_124_2_209, all_124_1_208) = all_124_0_207
% 12.17/3.43  		| (194) sdtlbdtrb0(xs, all_0_16_16) = all_124_2_209
% 12.17/3.43  		| (195) sziznziztdt0(xs) = all_124_5_212
% 12.17/3.43  		| (196) sziznziztdt0(xs) = all_124_4_211
% 12.17/3.43  		| (197) sdtlbdtrb0(xs, all_0_16_16) = all_124_1_208
% 12.17/3.43  		|
% 12.17/3.43  		+-Applying beta-rule and splitting (150), into two cases.
% 12.17/3.43  		|-Branch one:
% 12.17/3.43  		| (198) sdtasasdt0(xs, xs) = all_0_7_7
% 12.17/3.43  		|
% 12.17/3.43  			+-Applying beta-rule and splitting (149), into two cases.
% 12.17/3.43  			|-Branch one:
% 12.17/3.43  			| (199) sdtasasdt0(xs, xt) = all_0_9_9
% 12.17/3.43  			|
% 12.17/3.43  				+-Applying beta-rule and splitting (158), into two cases.
% 12.17/3.43  				|-Branch one:
% 12.17/3.43  				| (181) all_0_16_16 = sz00
% 12.17/3.43  				|
% 12.17/3.43  					| Equations (181) can reduce 141 to:
% 12.17/3.43  					| (182) $false
% 12.17/3.43  					|
% 12.17/3.43  					|-The branch is then unsatisfiable
% 12.17/3.43  				|-Branch two:
% 12.17/3.43  				| (141)  ~ (all_0_16_16 = sz00)
% 12.17/3.43  				| (203)  ? [v0] : (sziznziztdt0(xs) = v0 &  ! [v1] :  ! [v2] :  ! [v3] : ( ~ (sdtlbdtrb0(v0, v2) = v3) |  ~ (aDimensionOf0(v0) = v1) |  ~ aNaturalNumber0(v2) | sdtlbdtrb0(xs, v2) = v3) &  ! [v1] :  ! [v2] :  ! [v3] : ( ~ (sdtlbdtrb0(xs, v2) = v3) |  ~ (aDimensionOf0(v0) = v1) |  ~ aNaturalNumber0(v2) | sdtlbdtrb0(v0, v2) = v3) &  ! [v1] :  ! [v2] : (v1 = v0 |  ~ (aDimensionOf0(v1) = v2) |  ~ aVector0(v1) |  ? [v3] :  ? [v4] :  ? [v5] : (( ~ (v5 = v4) & sdtlbdtrb0(v1, v3) = v4 & sdtlbdtrb0(xs, v3) = v5 & aNaturalNumber0(v3)) | ( ~ (v3 = all_0_16_16) & szszuzczcdt0(v2) = v3))) &  ! [v1] : ( ~ (aDimensionOf0(v0) = v1) | szszuzczcdt0(v1) = all_0_16_16) &  ! [v1] : ( ~ (aDimensionOf0(v0) = v1) | aVector0(v0)))
% 12.17/3.43  				|
% 12.17/3.43  					+-Applying beta-rule and splitting (153), into two cases.
% 12.17/3.43  					|-Branch one:
% 12.17/3.43  					| (181) all_0_16_16 = sz00
% 12.17/3.43  					|
% 12.17/3.43  						| Equations (181) can reduce 141 to:
% 12.17/3.43  						| (182) $false
% 12.17/3.43  						|
% 12.17/3.43  						|-The branch is then unsatisfiable
% 12.17/3.43  					|-Branch two:
% 12.17/3.43  					| (141)  ~ (all_0_16_16 = sz00)
% 12.17/3.43  					| (207)  ? [v0] :  ? [v1] :  ? [v2] :  ? [v3] :  ? [v4] :  ? [v5] :  ? [v6] : (sdtasasdt0(v1, v2) = v3 & sdtasasdt0(xs, xt) = v0 & sziznziztdt0(xt) = v2 & sziznziztdt0(xs) = v1 & sdtlbdtrb0(xt, all_0_16_16) = v5 & sdtlbdtrb0(xs, all_0_16_16) = v4 & sdtasdt0(v4, v5) = v6 & sdtpldt0(v3, v6) = v0)
% 12.17/3.43  					|
% 12.17/3.43  						| Instantiating (207) with all_147_0_215, all_147_1_216, all_147_2_217, all_147_3_218, all_147_4_219, all_147_5_220, all_147_6_221 yields:
% 12.17/3.43  						| (208) sdtasasdt0(all_147_5_220, all_147_4_219) = all_147_3_218 & sdtasasdt0(xs, xt) = all_147_6_221 & sziznziztdt0(xt) = all_147_4_219 & sziznziztdt0(xs) = all_147_5_220 & sdtlbdtrb0(xt, all_0_16_16) = all_147_1_216 & sdtlbdtrb0(xs, all_0_16_16) = all_147_2_217 & sdtasdt0(all_147_2_217, all_147_1_216) = all_147_0_215 & sdtpldt0(all_147_3_218, all_147_0_215) = all_147_6_221
% 12.17/3.43  						|
% 12.17/3.43  						| Applying alpha-rule on (208) yields:
% 12.17/3.43  						| (209) sdtasdt0(all_147_2_217, all_147_1_216) = all_147_0_215
% 12.17/3.43  						| (210) sdtlbdtrb0(xs, all_0_16_16) = all_147_2_217
% 12.17/3.43  						| (211) sdtpldt0(all_147_3_218, all_147_0_215) = all_147_6_221
% 12.17/3.43  						| (212) sdtasasdt0(xs, xt) = all_147_6_221
% 12.17/3.43  						| (213) sziznziztdt0(xt) = all_147_4_219
% 12.17/3.43  						| (214) sziznziztdt0(xs) = all_147_5_220
% 12.17/3.43  						| (215) sdtlbdtrb0(xt, all_0_16_16) = all_147_1_216
% 12.17/3.43  						| (216) sdtasasdt0(all_147_5_220, all_147_4_219) = all_147_3_218
% 12.17/3.43  						|
% 12.17/3.43  						+-Applying beta-rule and splitting (146), into two cases.
% 12.17/3.43  						|-Branch one:
% 12.17/3.43  						| (217) sdtasasdt0(xt, xt) = all_0_6_6
% 12.17/3.43  						|
% 12.17/3.43  							+-Applying beta-rule and splitting (147), into two cases.
% 12.17/3.43  							|-Branch one:
% 12.17/3.43  							| (181) all_0_16_16 = sz00
% 12.17/3.43  							|
% 12.17/3.43  								| Equations (181) can reduce 141 to:
% 12.17/3.43  								| (182) $false
% 12.17/3.43  								|
% 12.17/3.43  								|-The branch is then unsatisfiable
% 12.17/3.43  							|-Branch two:
% 12.17/3.43  							| (141)  ~ (all_0_16_16 = sz00)
% 12.17/3.43  							| (221)  ? [v0] :  ? [v1] :  ? [v2] :  ? [v3] :  ? [v4] :  ? [v5] :  ? [v6] : (sdtasasdt0(v1, v2) = v3 & sdtasasdt0(xt, xt) = v0 & sziznziztdt0(xt) = v2 & sziznziztdt0(xt) = v1 & sdtlbdtrb0(xt, all_0_16_16) = v5 & sdtlbdtrb0(xt, all_0_16_16) = v4 & sdtasdt0(v4, v5) = v6 & sdtpldt0(v3, v6) = v0)
% 12.17/3.43  							|
% 12.17/3.43  								| Instantiating (221) with all_156_0_222, all_156_1_223, all_156_2_224, all_156_3_225, all_156_4_226, all_156_5_227, all_156_6_228 yields:
% 12.17/3.43  								| (222) sdtasasdt0(all_156_5_227, all_156_4_226) = all_156_3_225 & sdtasasdt0(xt, xt) = all_156_6_228 & sziznziztdt0(xt) = all_156_4_226 & sziznziztdt0(xt) = all_156_5_227 & sdtlbdtrb0(xt, all_0_16_16) = all_156_1_223 & sdtlbdtrb0(xt, all_0_16_16) = all_156_2_224 & sdtasdt0(all_156_2_224, all_156_1_223) = all_156_0_222 & sdtpldt0(all_156_3_225, all_156_0_222) = all_156_6_228
% 12.17/3.43  								|
% 12.17/3.43  								| Applying alpha-rule on (222) yields:
% 12.17/3.43  								| (223) sdtpldt0(all_156_3_225, all_156_0_222) = all_156_6_228
% 12.17/3.43  								| (224) sdtasasdt0(xt, xt) = all_156_6_228
% 12.17/3.43  								| (225) sdtlbdtrb0(xt, all_0_16_16) = all_156_2_224
% 12.17/3.43  								| (226) sdtasasdt0(all_156_5_227, all_156_4_226) = all_156_3_225
% 12.17/3.43  								| (227) sdtlbdtrb0(xt, all_0_16_16) = all_156_1_223
% 12.17/3.43  								| (228) sziznziztdt0(xt) = all_156_5_227
% 12.17/3.43  								| (229) sziznziztdt0(xt) = all_156_4_226
% 12.17/3.43  								| (230) sdtasdt0(all_156_2_224, all_156_1_223) = all_156_0_222
% 12.17/3.43  								|
% 12.17/3.43  								| Instantiating formula (69) with xt, xt, all_156_6_228, all_0_1_1 and discharging atoms sdtasasdt0(xt, xt) = all_156_6_228, sdtasasdt0(xt, xt) = all_0_1_1, yields:
% 12.17/3.43  								| (231) all_156_6_228 = all_0_1_1
% 12.17/3.43  								|
% 12.17/3.43  								| Instantiating formula (69) with xt, xt, all_75_1_142, all_156_6_228 and discharging atoms sdtasasdt0(xt, xt) = all_156_6_228, sdtasasdt0(xt, xt) = all_75_1_142, yields:
% 12.17/3.43  								| (232) all_156_6_228 = all_75_1_142
% 12.17/3.43  								|
% 12.17/3.43  								| Instantiating formula (69) with xt, xt, all_17_0_22, all_156_6_228 and discharging atoms sdtasasdt0(xt, xt) = all_156_6_228, sdtasasdt0(xt, xt) = all_17_0_22, yields:
% 12.17/3.43  								| (233) all_156_6_228 = all_17_0_22
% 12.17/3.43  								|
% 12.17/3.43  								| Instantiating formula (69) with xt, xt, all_0_6_6, all_75_1_142 and discharging atoms sdtasasdt0(xt, xt) = all_75_1_142, sdtasasdt0(xt, xt) = all_0_6_6, yields:
% 12.17/3.43  								| (234) all_75_1_142 = all_0_6_6
% 12.17/3.43  								|
% 12.17/3.43  								| Instantiating formula (69) with xs, xt, all_57_1_93, all_0_4_4 and discharging atoms sdtasasdt0(xs, xt) = all_57_1_93, sdtasasdt0(xs, xt) = all_0_4_4, yields:
% 12.17/3.43  								| (235) all_57_1_93 = all_0_4_4
% 12.17/3.43  								|
% 12.17/3.43  								| Instantiating formula (69) with xs, xt, all_57_1_93, all_147_6_221 and discharging atoms sdtasasdt0(xs, xt) = all_147_6_221, sdtasasdt0(xs, xt) = all_57_1_93, yields:
% 12.17/3.43  								| (236) all_147_6_221 = all_57_1_93
% 12.17/3.43  								|
% 12.17/3.43  								| Instantiating formula (69) with xs, xt, all_25_0_27, all_147_6_221 and discharging atoms sdtasasdt0(xs, xt) = all_147_6_221, sdtasasdt0(xs, xt) = all_25_0_27, yields:
% 12.17/3.43  								| (237) all_147_6_221 = all_25_0_27
% 12.17/3.43  								|
% 12.17/3.43  								| Instantiating formula (69) with xs, xt, all_0_9_9, all_57_1_93 and discharging atoms sdtasasdt0(xs, xt) = all_57_1_93, sdtasasdt0(xs, xt) = all_0_9_9, yields:
% 12.17/3.43  								| (238) all_57_1_93 = all_0_9_9
% 12.17/3.43  								|
% 12.17/3.43  								| Instantiating formula (69) with xs, xs, all_75_2_143, all_124_6_213 and discharging atoms sdtasasdt0(xs, xs) = all_124_6_213, sdtasasdt0(xs, xs) = all_75_2_143, yields:
% 12.17/3.43  								| (239) all_124_6_213 = all_75_2_143
% 12.17/3.43  								|
% 12.17/3.43  								| Instantiating formula (69) with xs, xs, all_23_0_26, all_0_2_2 and discharging atoms sdtasasdt0(xs, xs) = all_23_0_26, sdtasasdt0(xs, xs) = all_0_2_2, yields:
% 12.17/3.43  								| (240) all_23_0_26 = all_0_2_2
% 12.17/3.43  								|
% 12.17/3.43  								| Instantiating formula (69) with xs, xs, all_23_0_26, all_75_2_143 and discharging atoms sdtasasdt0(xs, xs) = all_75_2_143, sdtasasdt0(xs, xs) = all_23_0_26, yields:
% 12.17/3.43  								| (241) all_75_2_143 = all_23_0_26
% 12.17/3.43  								|
% 12.17/3.43  								| Instantiating formula (69) with xs, xs, all_0_7_7, all_124_6_213 and discharging atoms sdtasasdt0(xs, xs) = all_124_6_213, sdtasasdt0(xs, xs) = all_0_7_7, yields:
% 12.17/3.43  								| (242) all_124_6_213 = all_0_7_7
% 12.17/3.43  								|
% 12.17/3.44  								| Combining equations (232,233) yields a new equation:
% 12.17/3.44  								| (243) all_75_1_142 = all_17_0_22
% 12.17/3.44  								|
% 12.17/3.44  								| Simplifying 243 yields:
% 12.17/3.44  								| (244) all_75_1_142 = all_17_0_22
% 12.17/3.44  								|
% 12.17/3.44  								| Combining equations (231,233) yields a new equation:
% 12.17/3.44  								| (245) all_17_0_22 = all_0_1_1
% 12.17/3.44  								|
% 12.17/3.44  								| Combining equations (236,237) yields a new equation:
% 12.17/3.44  								| (246) all_57_1_93 = all_25_0_27
% 12.17/3.44  								|
% 12.17/3.44  								| Simplifying 246 yields:
% 12.17/3.44  								| (247) all_57_1_93 = all_25_0_27
% 12.17/3.44  								|
% 12.17/3.44  								| Combining equations (239,242) yields a new equation:
% 12.17/3.44  								| (248) all_75_2_143 = all_0_7_7
% 12.17/3.44  								|
% 12.17/3.44  								| Simplifying 248 yields:
% 12.17/3.44  								| (249) all_75_2_143 = all_0_7_7
% 12.17/3.44  								|
% 12.17/3.44  								| Combining equations (244,234) yields a new equation:
% 12.17/3.44  								| (250) all_17_0_22 = all_0_6_6
% 12.17/3.44  								|
% 12.17/3.44  								| Simplifying 250 yields:
% 12.17/3.44  								| (251) all_17_0_22 = all_0_6_6
% 12.17/3.44  								|
% 12.17/3.44  								| Combining equations (241,249) yields a new equation:
% 12.17/3.44  								| (252) all_23_0_26 = all_0_7_7
% 12.17/3.44  								|
% 12.17/3.44  								| Simplifying 252 yields:
% 12.17/3.44  								| (253) all_23_0_26 = all_0_7_7
% 12.17/3.44  								|
% 12.17/3.44  								| Combining equations (238,247) yields a new equation:
% 12.17/3.44  								| (254) all_25_0_27 = all_0_9_9
% 12.17/3.44  								|
% 12.17/3.44  								| Combining equations (235,247) yields a new equation:
% 12.17/3.44  								| (255) all_25_0_27 = all_0_4_4
% 12.17/3.44  								|
% 12.17/3.44  								| Combining equations (255,254) yields a new equation:
% 12.17/3.44  								| (256) all_0_4_4 = all_0_9_9
% 12.17/3.44  								|
% 12.17/3.44  								| Simplifying 256 yields:
% 12.17/3.44  								| (257) all_0_4_4 = all_0_9_9
% 12.17/3.44  								|
% 12.17/3.44  								| Combining equations (253,240) yields a new equation:
% 12.17/3.44  								| (258) all_0_2_2 = all_0_7_7
% 12.17/3.44  								|
% 12.17/3.44  								| Combining equations (245,251) yields a new equation:
% 12.17/3.44  								| (259) all_0_1_1 = all_0_6_6
% 12.17/3.44  								|
% 12.17/3.44  								| Simplifying 259 yields:
% 12.17/3.44  								| (260) all_0_1_1 = all_0_6_6
% 12.17/3.44  								|
% 12.17/3.44  								| Combining equations (254,247) yields a new equation:
% 12.17/3.44  								| (238) all_57_1_93 = all_0_9_9
% 12.17/3.44  								|
% 12.17/3.44  								| From (249)(234) and (175) follows:
% 12.17/3.44  								| (262) sdtasdt0(all_0_7_7, all_0_6_6) = all_75_0_141
% 12.17/3.44  								|
% 12.17/3.44  								| From (238)(238) and (169) follows:
% 12.17/3.44  								| (263) sdtasdt0(all_0_9_9, all_0_9_9) = all_57_0_92
% 12.17/3.44  								|
% 12.17/3.44  								| From (258)(260) and (94) follows:
% 12.17/3.44  								| (264) sdtasdt0(all_0_7_7, all_0_6_6) = all_0_0_0
% 12.17/3.44  								|
% 12.17/3.44  								| From (257)(257) and (112) follows:
% 12.17/3.44  								| (265) sdtasdt0(all_0_9_9, all_0_9_9) = all_0_3_3
% 12.17/3.44  								|
% 12.17/3.44  								| Instantiating formula (138) with all_0_7_7, all_0_6_6, all_75_0_141, all_0_5_5 and discharging atoms sdtasdt0(all_0_7_7, all_0_6_6) = all_75_0_141, sdtasdt0(all_0_7_7, all_0_6_6) = all_0_5_5, yields:
% 12.17/3.44  								| (266) all_75_0_141 = all_0_5_5
% 12.17/3.44  								|
% 12.17/3.44  								| Instantiating formula (138) with all_0_7_7, all_0_6_6, all_0_0_0, all_75_0_141 and discharging atoms sdtasdt0(all_0_7_7, all_0_6_6) = all_75_0_141, sdtasdt0(all_0_7_7, all_0_6_6) = all_0_0_0, yields:
% 12.17/3.44  								| (267) all_75_0_141 = all_0_0_0
% 12.17/3.44  								|
% 12.17/3.44  								| Instantiating formula (138) with all_0_9_9, all_0_9_9, all_57_0_92, all_0_8_8 and discharging atoms sdtasdt0(all_0_9_9, all_0_9_9) = all_57_0_92, sdtasdt0(all_0_9_9, all_0_9_9) = all_0_8_8, yields:
% 12.17/3.44  								| (268) all_57_0_92 = all_0_8_8
% 12.17/3.44  								|
% 12.17/3.44  								| Instantiating formula (138) with all_0_9_9, all_0_9_9, all_0_3_3, all_57_0_92 and discharging atoms sdtasdt0(all_0_9_9, all_0_9_9) = all_57_0_92, sdtasdt0(all_0_9_9, all_0_9_9) = all_0_3_3, yields:
% 12.17/3.44  								| (269) all_57_0_92 = all_0_3_3
% 12.17/3.44  								|
% 12.17/3.44  								| Combining equations (267,266) yields a new equation:
% 12.17/3.44  								| (270) all_0_0_0 = all_0_5_5
% 12.17/3.44  								|
% 12.17/3.44  								| Simplifying 270 yields:
% 12.17/3.44  								| (271) all_0_0_0 = all_0_5_5
% 12.17/3.44  								|
% 12.17/3.44  								| Combining equations (269,268) yields a new equation:
% 12.17/3.44  								| (272) all_0_3_3 = all_0_8_8
% 12.17/3.44  								|
% 12.17/3.44  								| Simplifying 272 yields:
% 12.17/3.44  								| (273) all_0_3_3 = all_0_8_8
% 12.17/3.44  								|
% 12.17/3.44  								| From (273)(271) and (36) follows:
% 12.17/3.44  								| (274)  ~ sdtlseqdt0(all_0_8_8, all_0_5_5)
% 12.17/3.44  								|
% 12.17/3.44  								| Using (30) and (274) yields:
% 12.17/3.44  								| (275) $false
% 12.17/3.44  								|
% 12.17/3.44  								|-The branch is then unsatisfiable
% 12.17/3.44  						|-Branch two:
% 12.17/3.44  						| (276)  ~ (sdtasasdt0(xt, xt) = all_0_6_6)
% 12.17/3.44  						| (181) all_0_16_16 = sz00
% 12.17/3.44  						|
% 12.17/3.44  							| Equations (181) can reduce 141 to:
% 12.17/3.44  							| (182) $false
% 12.17/3.44  							|
% 12.17/3.44  							|-The branch is then unsatisfiable
% 12.17/3.44  			|-Branch two:
% 12.17/3.44  			| (279)  ~ (sdtasasdt0(xs, xt) = all_0_9_9)
% 12.17/3.44  			| (181) all_0_16_16 = sz00
% 12.17/3.44  			|
% 12.17/3.44  				| Equations (181) can reduce 141 to:
% 12.17/3.44  				| (182) $false
% 12.17/3.44  				|
% 12.17/3.44  				|-The branch is then unsatisfiable
% 12.17/3.44  		|-Branch two:
% 12.17/3.44  		| (282)  ~ (sdtasasdt0(xs, xs) = all_0_7_7)
% 12.17/3.44  		| (181) all_0_16_16 = sz00
% 12.17/3.44  		|
% 12.17/3.44  			| Equations (181) can reduce 141 to:
% 12.17/3.44  			| (182) $false
% 12.17/3.44  			|
% 12.17/3.44  			|-The branch is then unsatisfiable
% 12.17/3.44  % SZS output end Proof for theBenchmark
% 12.17/3.44  
% 12.17/3.44  2845ms
%------------------------------------------------------------------------------